NVIDIA logo

NVIDIA A100 Tensor Core GPUはAIとHPC用途のためにデータセンター向けGPUとして開発されたVolta世代の後継として製造プロセスルール7nmのAmpereアーキテクチャを採用。第3世代のTensorコアを実装し、BFloat16、Tensor Float 32を新たにサポート、前世代のVoltaと比較しFP32演算、INT8のディープラーニング推論処理において20倍の性能を実現し、トレーニングと推論の両方が強化されています。
また、Multi-instance GPU(MIG)機能により単一のA100を最大7個のGPUとして扱うことが可能で複数のユーザーが独立したインスタンスとして利用できます。

  • Ampereアーキテクチャ
  • 世界最大のトランジスタ数540億の7nmプロセス チップ

  • 第3世代Tensorコア
  • TF32を導入しAI性能が20倍に向上

  • 第3世代NVLinkとNVSwitch
  • GPU間を相互に接続するNVLinkは前世代比で2倍のスループレットに向上し600GB/sで接続可能。

  • 構造的疎性による推論の高速化
  • 「疎行列」(Sparse Matrix)演算への対応と最適化によりAI性能を2倍高速化

  • Multi-instance GPU(MIG)機能
  • 単体のA100を最大7つの独立したインスタンスに分割し、複数ユーザーが互いに影響させることなく各自のワークロードを同時に実行できます。

  • PCI Express Gen 4対応
  • 汎用性を高めストレージ、ネットワークを高速化。

NVIDIA HGX™ A100の仕様
 
NVIDIA HGX™ A100 8-GPU
NVIDIA HGX™ A100 8-GPU
NVIDIA HGX™ A100 4-GPU
NVIDIA HGX™ A100 4-GPU
GPU HGX A100 8-GPU HGX A100 4-GPU
フォームファクタ NVIDIA A100 SXM 8基 NVIDIA A100 SXM 4基
HPC および AI 計算
(FP64/TF32/FP16/FP8/INT8)
156TF/2.5PF/5PF/10POPS 78TF/1.25PF/2.5PF/5POPS
メモリ 最大 640 GB 最大 320 GB
NVLink 第 3 世代
NVSwitch 第 2 世代 N / A
GPU 間の帯域幅を備えた NVS 600 GB/秒 N / A
合計帯域幅 4.8 TB/秒 2.4 TB/秒

関連製品