日本コンピューティングシステム(JCS)

日本コンピューティングシステム(JCS)は機械学習用途のGPGPU、研究用途のHPCを多くの企業、各省庁・各大学へ数多く納入した実績を誇るITサプライヤーです

03-3821-3200
製品情報 Tesla nvidia TeslaNVIDIA DATA Center SolutionNVIDIA RTX SolutionAMD Radeon Serverラックマウントサーバーサーバー+RAID タワー型サーバー ブレードサーバーストレージDASNASRAIDシステムワークステーションタワー型ワークステーションキューブ型 デスクトップPC ミッドタワーモデルスリム&コンパクトモデルHPC SolutionsHPC OEM/ODM オプション catalog

Supermicro カスタムオーダー NVIDIA Partner Network
 

NVIDIA Tensor CoreNVIDIA GPU

NVIDIA Ampere ラインナップ

A100 SXM
NVIDIA A100 SXM データシートを見る
GPUメモリ 80GB HBM2e
メモリー帯域幅 2,039GB/s
マルチインスタンスGPU 最大7GPU
フォームファクター SXM
最大消費電力 400W
NVIDIA DGX A100 第3世代 インテル Xeon スケーラブル・プロセッサー AMD 第3世代 EPYC プロセッサー
A100
NVIDIA A100 PCIe データシートを見る
GPUメモリ 80GB HBM2e
メモリー帯域幅 1,935GB/s
マルチインスタンスGPU 最大7GPU
フォームファクター PCIe 2スロット
最大消費電力 300W
NVIDIA Ampere 搭載 ラックマウント 一覧へ
A30
NVIDIA A30 データシートを見る
GPUメモリ 24GB HBM2
メモリー帯域幅 933GB/s
マルチインスタンスGPU 4GPU 6GB
2GPU 12GB
1GPU 24GB
フォームファクター 2スロット FHFL
最大消費電力 165W
NVIDIA Ampere 搭載 ラックマウント 一覧へ
A10
NVIDIA A10 データシートを見る
GPUメモリ 24GB GDDR6
メモリー帯域幅 600GB/s
マルチインスタンスGPU N / A
フォームファクター 1スロット FHFL
最大消費電力 150W
NVIDIA Ampere 搭載 ラックマウント 一覧へ

NVIDIA Ampere 仕様比較

 
NVIDIA A100 SXM
NVIDIA A100 SXM
NVIDIA A100 PCIe
NVIDIA A100 PCIe
NVIDIA A30
NVIDIA A30
NVIDIA A10
NVIDIA A10
GPUメモリ 80GB HBM2e 80GB HBM2e 24GB HBM2 24GB GDDR6
メモリー帯域幅 2,039GB/s 1,935GB/s 933GB/s 600GB/s
最大消費電力 400W 300W 165W 150W
マルチインスタンスGPU 最大7GPU 最大7GPU 4GPU 6GB
2GPU 12GB
1GPU 24GB
N / A
フォームファクター SXM PCIe
2スロット
2スロット
FHFL
1スロット
FHFL
NVLink NVIDIA NVLink 600 GB/s
PCIe Gen4 64 GB/s
NVIDIA NVLink 600 GB/s
PCIe Gen4 64 GB/s
NVIDIA NVLink 200 GB/s
PCIe Gen4 64 GB/s
N / A
排熱機構 パッシブ(冷却ファンなし) パッシブ(冷却ファンなし) パッシブ(冷却ファンなし) パッシブ(冷却ファンなし)
FP64(TFLOPS) 9.7 9.7 5.2 -
FP64 Tensorコア(TFLOPS) 19.5 19.5 10.3 -
Tensor Float 32(TFLOPS) 156 / 312 156 / 312 82 / 165 62.5 / 125
BFLOAT16 Tensorコア(TFLOPS) 312 / 624 312 / 624 165 / 330 125 / 250
FP16 Tensorコア(TFLOPS) 312 / 624 312 / 624 165 / 330 125 / 250
INT8 Tensorコア(TOPS) 624 / 1248 624 / 1248 330 / 661 250 / 500
実アプリ性能 - 90% - -

NVIDIA Ampere アーキテクチャ

NVIDIA A100 Tensorコア GPUはあらゆる規模で前例のない高速化を実現し、世界最高のパフォーマンスを誇るエラスティック データ センターにAI、データ分析、HPCのためのパワーを与えます。NVIDIA Ampereアーキテクチャで設計されたNVIDIA A100は、NVIDIA データ センター プラットフォームのエンジンです。A100は、前世代と比較して最大20倍のパフォーマンスを発揮し、7つのGPUインスタンスに分割して、変化する需要に合わせて動的に調整できます。40GBと80GB のメモリ バージョンで利用可能なA100 80GBは、毎秒2テラバイト (TB/秒)超えの世界最速メモリ帯域幅を実現し、最大級のモデルやデータセットを解決します。

NVIDIA AMPERE アーキテクチャのイノベーション

NVIDIA Volta™ アーキテクチャで最初に導入されたNVIDIA Tensorコア テクノロジは、AIに劇的な高速化をもたらしました。トレーニング時間を数週間から数時間に短縮し、推論を大幅に加速します。NVIDIA Ampereアーキテクチャはこのイノベーションを基盤としており、新しい精度である Tensor Float 32 (TF32) と64ビット浮動小数点 (FP64) を導入することで、AI の導入を加速して簡素化し、Tensor コアのパワーを HPC にもたらします。

TF32はFP32と同じように動作しますが、コードを変更しなくても、AIを最大20倍スピードアップします。 NVIDIA Automatic Mixed Precisionを使用すると、研究者はわずか数行のコードを追加するだけで、自動混合精度とFP16でさらに2倍のパフォーマンスを得られます。また、bfloat16、INT8、INT4に対応しているので、NVIDIA Ampere アーキテクチャのTensorコア GPUのTensorコアは、AIのトレーニングと推論の両方に対する、非常に汎用性の高いアクセラレータです。また、TensorコアのパワーをHPCにもたらすA100およびA30 GPUでは、完全なIEEE準拠のFP64精度での行列演算を実行できます。

あらゆるAIとHPC アプリケーションがアクセラレーションの恩恵を受けることができますが、すべてのアプリケーションがGPUのフル パフォーマンスを必要とするわけではありません。Multi-Instance GPU (MIG) は、 A100とA30 GPU PU でサポートされている機能であり、ワークロードがGPUを共有することを可能にします。MIGを利用すると、各GPUを複数のGPUインスタンスに分割できます。各インスタンスは完全に分離され、ハードウェア レベルで保護され、専用の高帯域幅メモリ、キャッシュ、コンピューティング コアを与えられます。これにより開発者は、大小を問わずあらゆるアプリケーションに対して画期的な高速化を利用できるようになり、サービス品質も保証されます。また、IT管理者は、適切なサイズのGPUアクセラレーションを提供することで利用率を最適化し、ベアメタル環境と仮想化環境の両方ですべてのユーザーとアプリケーションにアクセスを拡張できます。

アプリケーションをマルチGPUでスケールさせるには、非常に高速にデータを移動させる必要があります。NVIDIA Ampere アーキテクチャの第3世代 NVIDIA® NVLink® は、GPU 間の直接帯域幅を2倍の毎秒600ギガバイト (GB/s) にします。これは、PCIe Gen4の約10倍です。最新世代の NVIDIA NVSwitch™と組み合わせることで、サーバー内のすべてのGPUが完全なNVLinkの速度で相互に通信し、驚くほど高速なデータ転送が可能になります。 NVIDIA DGX™A100と他の主要なコンピューター メーカーのサーバーは、 NVIDIA HGX™ A100ベースボードを介してNVLinkとNVSwitchのテクノロジを活用し、HPCおよびAIのワークロードに優れたスケーラビリティを提供します。

現代のAIネットワークは大きく、数百万、場合によっては数十億のパラメーターを持ち、ますますその規模は拡大しています。これらのパラメーターのすべてが正確な予測や推論に必要なわけではなく、一部のパラメーターをゼロに変換することで、精度を下げることなくモデルを「スパース」にできます。Tensorコアでは、スパースなモデルのパフォーマンスを最大2倍にできます。スパース機能はAI推論で特に効果を発揮しますが、モデルトレーニングのパフォーマンス向上にも利用できます。

NVIDIA A40のNVIDIA Ampereアーキテクチャの第2世代RTコアは、映画コンテンツのフォトリアルなレンダリング、建築デザインの評価、製品デザインのバーチャル試作品などのワークロードを大幅にスピードアップします。RTコアはまた、レイ トレーシングされたモーション ブラーのレンダリングをスピードアップし、短時間で結果が得られ、ビジュアルの精度が上がります。さらに、レイ トレーシングをシェーディング機能またはノイズ除去機能と共に同時に実行できます。

A100は、データセンターでの膨大な量のコンピューティングを可能にします。コンピューティング エンジンを常に完全に活用するために、A100はこのクラスで最大となる毎秒2テラバイト (TB/s) のメモリ帯域幅を備えています。前世代の2倍以上です。さらに、A100は前世代の7倍となる40メガバイト (MB) のレベル2キャッシュを含む、より大きなオンチップ メモリを搭載しており、コンピューティング パフォーマンスを最大限まで引き上げます。

ピックアップ

オススメ
NVIDIA
NVIDIA-DGX-A100

NVIDIA ディープラーニングシステムNVIDIA A100 HGX 8基搭載

NVIDIA DGX A100

6UラックマウントシャーシにNVIDIA A100 Tensor コア GPUを8基搭載し、あらゆるAIワークロードに対応するユニバーサルシステムです。システムで5PFLOPSのAI性能を持つ本製品はこれまでにない高密度に統合されたGPUコンピュートノードを構築することが可能です。

  • GPU NVIDIA A100 HGX x 8
  • GPUメモリ 合計320GB
  • CPU AMD 第2世代 EPYC プロセッサー x 2
  • CPUコア数 128
  • システムメモリ 1TB
  • 消費電力 最大6.5 kW
  • ケース 6U
オススメ
VCX-4U24LA004-G

4Uラックマウント GPGPUモデルNVIDIA A100 最大10基搭載

VCX-4U24LA004-G

4UラックマウントにIntel® Xeon スケーラブル・プロセッサーを2基、NVIDIA GPUを最大10基搭載するハイパフォーマンスGPGPUモデルです。本製品は、特にパターン認識や画像認識を必要とするディープラーニングや、あらゆるHPC分野の計算やシミュレーションに高い生産性を実現するハイスケーラブルなGPGPUモデルです。

  • GPU NVIDIA A100 PCIe x 10
  • CPU 第3世代 インテル Xeon スケーラブル x 2
  • 最大CPUコア数 80
  • 最大メモリ 8TB
  • ストレージ 2.5" x 24
  • ケース 4U

お問い合わせ

お問い合わせ先

TEL 03-3821-3200
(平日:月曜〜金曜 9:00〜17:30 土曜:11:00〜17:00 ※祝祭日、休業日を除く )
FAX 03-3821-3241
(24時間365日受付)
E-Mail vintagejcsn.co.jp
(24時間365日受付)
メールフォーム お問い合わせフォーム
(24時間365日受付)