日本コンピューティングシステム(JCS)は、企業・各省庁・大学へサーバ、GPGPU等の数多くの納入実績を誇るITサプライヤーです

NVIDIA logo
NVIDIA H200 NVL 仕様
 
NVIDIA H200 NVL
NVIDIA H200 PCle 141GB NVL
FP64(TFLOPS) 30
FP64 Tensor コア(TFLOPS) 60
FP32(TFLOPS) 60
TF32 Tensor コア(TFLOPS) 835
BFLOAT16 Tensorコア(TFLOPS) 1,671
FP16 Tensorコア(TFLOPS) 1,671
FP8 Tensorコア(TFLOPS) 3,341
INT8 Tensorコア(TOPS) 3,341
GPUメモリ 141GB
GPUメモリー帯域幅 4.8TB/s
デコーダー 7 NVDEC
7 JPEG
コンフィデンシャル コンピューティング サポート対象
最大熱設計電力(TDP) 最大600W(設定可能)
マルチインスタンスGPU 最大7パーティション(各16.5GB)
フォームファクター PCIe デュアルスロット空冷
相互接続 2台または4台構成時のNVIDIA NVLink ブジッジ : GPU1台あたり 900 GB/s
PCIe Gen5 : 128 GB/s
NVIDIA AI Enterprise 同梱
排熱機構 パッシブ(冷却ファンなし)

NVIDIA H200 PCle 141GB NVL

NVIDIA H200 NVLは、柔軟な構成が求められる空冷式エンタープライズラック向けに最適化された低消費電力モデルです。あらゆる規模のAIおよびHPC処理に対応する高い処理性能を実現します。最大4基のGPUをNVIDIA NVLink™で接続し、1.5倍のメモリ容量を備えることで、大規模言語モデル (LLM) の推論処理ではH100 NVL比で最大1.7倍、HPC処理では最大1.3倍の性能向上を達成しています。

生成AIとHPCのためのGPU

NVIDIA H200 TensorコアGPUは、市場を一変させるパフォーマンスとメモリ機能で生成AIとHPCワークロードを強化します。HBM3eを搭載した初のGPUであるH200の大容量かつ高速のメモリは、HPCワークロードのための科学コンピューティングを推進しながら、生成AIと大規模言語モデル(LLM)の高速化を促進します。

LLama2 70B推論
1.9倍 の高速化
GPT3-175B推論
1.6倍 の高速化
高性能コンピューティング
110倍 の高速化

NVIDIA H200のイノベーション

大容量で高速なメモリによる高いパフォーマンス

NVIDIA HopperアーキテクチャをベースとするNVIDIA H200は、4.8TB/sで141GBのHBM3eメモリを提供する初のGPUです。これは、NVIDIA H100 TensorコアGPUの約2倍の容量で、メモリ帯域幅は1.4倍です。H200の大容量かつ高速なメモリは、生成AIとLLMを加速し、エネルギー効率を向上させ、総所有コストを低減し、HPCワークロードのための科学コンピューティングを前進させます。

高性能なLLM推論でインサイトを引き出す

進化し続けるAIの世界では、企業はさまざまな推論のニーズに対応するためにLLMを利用しています。AI推論アクセラレータは、大規模なユーザーベース向けにデプロイする場合、最小のTCOで最高のスループットを実現する必要があります。

H200は、Llama2のようなLLMを扱う場合、H100 GPUと比較して推論速度を最大2倍向上します。

ハイパフォーマンスコンピューティングをスーパーチャージ

メモリ帯域幅は、より高速なデータ転送を実現することで、ボトルネックとなる複雑な処理を削減するため、ハイパフォーマンスコンピューティングアプリケーションにとって極めて重要です。シミュレーション、科学研究、人工知能のようなメモリを大量に使用するHPCアプリケーションでは、 H200の高いメモリ帯域幅が、データへのアクセスと操作を効率化し、CPUと比較して110倍の早さで結果を得ることができます。

エネルギーとTCOの削減

H200の導入により、エネルギー効率とTCOが新たなレベルに到達します。この最先端のテクノロジーは、すべてH100 TensorコアGPUと同じ電力プロファイル内で、かつてないパフォーマンスを提供します。AIファクトリーとスーパーコンピューティングシステムは、高速なだけでなく、環境にも優しく、AIと科学のコミュニティを推進する経済的優位性を提供します。

関連製品