日本コンピューティングシステム(JCS)は、企業・各省庁・大学へサーバ、GPGPU等の数多くの納入実績を誇るITサプライヤーです

NVIDIA 大規模AI向けGPU「NVIDIA H200 NVL」取り扱い開始

NVIDIA logo

NVIDIA(本社:アメリカ)、NVIDIA Hopper アーキテクチャを採用した大規模AI向けGPU「NVIDIA H200 NVL」の取り扱いを開始いたします。

「NVIDIA H200 NVL」は、柔軟な構成が求められる空冷式エンタープライズラック向けに最適化された低消費電力モデルです。あらゆる規模のAIおよびHPC処理に対応する高い処理性能を実現します。最大4基のGPUをNVIDIA NVLink™で相互接続し、1.5倍のメモリ容量を備えることで、大規模言語モデル(LLM)の推論処理ではH100 NVL比で最大1.7倍、HPC処理では最大1.3倍の性能向上を達成しています。

詳しくは下記よりお問い合わせください。

お問い合わせフォーム
NVIDIA H200 NVL 仕様
 
NVIDIA H200 NVL
NVIDIA H200 PCle 141GB NVL
FP64(TFLOPS) 30
FP64 Tensor コア(TFLOPS) 60
FP32(TFLOPS) 60
TF32 Tensor コア(TFLOPS) 835
BFLOAT16 Tensorコア(TFLOPS) 1,671
FP16 Tensorコア(TFLOPS) 1,671
FP8 Tensorコア(TFLOPS) 3,341
INT8 Tensorコア(TOPS) 3,341
GPUメモリ 141GB
GPUメモリー帯域幅 4.8TB/s
デコーダー 7 NVDEC
7 JPEG
コンフィデンシャル コンピューティング サポート対象
最大熱設計電力(TDP) 最大600W(設定可能)
マルチインスタンスGPU 最大7パーティション(各16.5GB)
フォームファクター PCIe デュアルスロット空冷
相互接続 2台または4台構成時のNVIDIA NVLink ブジッジ : GPU1台あたり 900 GB/s
PCIe Gen5 : 128 GB/s
NVIDIA AI Enterprise 同梱
排熱機構 パッシブ(冷却ファンなし)

関連製品