日本コンピューティングシステム(JCS) 日本コンピューティングシステム(JCS)は機械学習用途のGPGPU、研究用途のHPCを多くの企業、各省庁・各大学へ数多く納入した実績を誇るITサプライヤーです
03-3821-3200
製品情報 Teslanvidia TeslaAMD Radeon Serverラックマウントサーバーサーバー+RAID タワー型サーバー ブレードサーバーストレージDASNASRAIDシステムワークステーションタワー型ワークステーションキューブ型デスクトップPCミッドタワーモデルスリム&コンパクトモデルHPC SolutionsHPCOEM/ODM オプション catalog

Supermicro カスタムオーダー
 

General-Purpose computing on Graphics Processing UnitsNVIDIA GPGPU ソリューション

NVIDIA ディープラーニングシステム NVIDIA A100 SXM 8基搭載

NVIDIA
NVIDIA DGX A100

画像は実際の製品と異なる場合があります。

NVIDIA DGX A100

6UラックマウントシャーシにNVIDIA A100 Tensor コア GPUを8基搭載し、あらゆるAIワークロードに対応するユニバーサルシステムです。システムで5PFLOPSのAI性能を持つ本製品はこれまでにない高密度に統合されたGPUコンピュートノードを構築することが可能です。

主な仕様
GPU NVIDIA A100 SXM x 8
GPUメモリ   合計320GB
CPU AMD 第2世代 EPYC プロセッサー x 2
CPUコア数   128
システムメモリ   1TB
消費電力   最大6.5 kW
ケース   6U

AIワークロードを統合する単一のプラットフォーム

NVIDIA DGX™ A100はNVIDIA V100の後継であるNVIDIA A100 Tensor コア GPUを8基搭載し、あらゆるAIワークロードに対応するユニバーサルシステムです。
GPU間通信の帯域幅が前世代から2倍となり、合計320GBのGPUメモリを搭載。そのAI性能は世界最高峰である5PFLOPSを誇り、Multi-instance GPU(MIG)機能により複数のワークロードをシステム当たり最大56のインスタンスに分割し同時に実行することで、分析から学習、および推論に至るまでの多様なワークフロー全体を加速させます。

NVIDIA A100 Tensor Core GPU(HGX)搭載

NVIDIA A100 Tensor Core GPUはAIとHPC用途のためにデータセンター向けGPUとして開発されたVolta世代の後継として製造プロセスルール7nmのAmpereアーキテクチャを採用。第3世代のTensorコアを実装し、BFloat16、Tensor Float 32を新たにサポート、前世代のVoltaと比較しFP32演算、INT8のディープラーニング推論処理において20倍の性能を実現し、トレーニングと推論の両方が強化されています。
また、Multi-instance GPU(MIG)機能により単一のA100を最大7個のGPUとして扱うことが可能で複数のユーザーが独立したインスタンスとして利用できます。

  • Ampereアーキテクチャ
  • 世界最大のトランジスタ数540億の7nmプロセス チップ

  • 第3世代Tensorコア
  • TF32を導入しAI性能が20倍に向上

  • 第3世代NVLinkとNVSwitch
  • GPU間を相互に接続するNVLinkは前世代比で2倍のスループレットに向上し600GB/sで接続可能。

  • 構造的疎性による推論の高速化
  • 「疎行列」(Sparse Matrix)演算への対応と最適化によりAI性能を2倍高速化

  • Multi-instance GPU(MIG)機能
  • 単体のA100を最大7つの独立したインスタンスに分割し、複数ユーザーが互いに影響させることなく各自のワークロードを同時に実行できます。

  • PCI Express Gen 4対応
  • 汎用性を高めストレージ、ネットワークを高速化。

NVIDIA A100 Tensor Core GPU(HGX) の仕様
 
NVIDIA HGX A100
NVIDIA HGX A100
GPU アーキテクチャ NVIDIA Ampere
フォームファクタ SXM4
FP64 CUDA コア 3,456
FP32 CUDA コア 6,912
Tensorコア 432
倍精度演算性能 FP64 : 9.7TFLOPS
FP64 Tensor コア : 19.5TFLOPS
単精度演算性能 FP32 : 19.5 TFLOPS
TF32 Tensor コア : 156TFLOPS / 312TFLOPS*
半精度演算性能(FP16) 312TFLOPS / 624TFLOPS*
BFLOAT16 312TFLOPS / 624TFLOPS*
整数性能 INT8 : 624TOPS / 1,248TOPS*
INT4 : 1,248TOPS / 2,496TOPS*
GPUメモリ 80GB HBM2
メモリ帯域幅 2,039 GB/sec
ECC 対応
GPU間接続帯域 600 GB/sec
システム接続 NVIDIA NVLink
PCIe Gen4
マルチインスタンスGPU 最大7分割
最大消費電力 400 W
主要アプリケーション実行性能 100%
冷却方式 パッシブ(冷却ファンなし)
API CUDA、DirectCompute、OpenCL、OpenACC
*スパース行列演算実行時

AMD EPYC プロセッサー搭載

「AMD EPYC プロセッサー」はデータセンター向けプロセッサーとして第1世代である「EPYC 7001 シリーズ」が2017年にリリースされました。第1世代 EPYCでは複数のダイを単一のパッケージに統合したマルチダイ化によりコストを抑え、性能向上のためのアプローチとしてMCM(Multi Chip Module:マルチ・チップ・モジュール)構成を採用、「Infinity Fabric」と呼ばれるインターコネクト技術により4つのダイが接続されています。
これにより第1世代 EPYCでは8個のZEN CPUコアを搭載したダイを4個使うことで最大32コアのCPUを実現しています。

2019年にリリースされた第2世代 EPYC プロセッサー「EPYC 7002 シリーズ」は、第1世代 EPYCのMCM構成を継承。8個のZEN2 CPUコアを搭載したダイを最大8個搭載し、新たにPCI Express Gen4のコントローラ、8チャネルのメモリコントローラなどを一つに集約したI/Oダイを接続。8コア×8ダイで最大64個のCPUコアを単一のCPUパッケージに搭載しています。

第2世代 EPYCは7nmプロセスの「ZEN2」アーキテクチャで製造され、分岐予測などの改良、FPユニットの強化、L3キャッシュの増加によりシングルスレッド、マルチコア性能が向上。
CPUダイ、ソケット間を接続する「Infinity Fabric」の速度も改良されており、第1世代 EPYCの10.76GT/sから、第2世代 EPYCでは18GT/sに向上しています。
これにより第1世代 EPYCと比較してIPCが15%改善されています。

9ダイ構成のマルチ・チップ・モジュール

AMD 第2世代 EPYC プロセッサーの主な特長

  • 7nmプロセスの「ZEN2」アーキテクチャ
  • 1つのパッケージ上に8つのプロセッサダイと単一のIOD(I/O Die)を集約
  • 1パッケージあたり最大64コア128スレッド
  • CPUダイ、ソケット間を接続する「Infinity Fabric」を10.7GT/秒から18GT/秒に引き上げ
  • DDR4-3200メモリに対応 1パッケージあたり最大4TB
  • PCI Express 4.0対応
  • 専用のセキュアチップを搭載しセキュリティを強化
世代別比較
  第1世代 EPYC 7001 第2世代 EPYC 7002
リリース年 2017年 2019年
コードネーム Naples Rome
アーキテクチャ Zen Zen2
製造プロセスルール 14nm 7nm
最大CPUコア 32 64
CPUソケット SP3 SP3
Infinity Fabric 10.7GT/秒 18GT/秒
ソケット数 1 / 2 1 / 2
メモリ DDR4-2666 DDR4-3200
メモリチャネル 8 8
最大メモリ 2TB 4TB
PCI Express Gen3 128レーン Gen4 128レーン

7nmプロセスの「ZEN2」アーキテクチャ

第2世代 EPYCは7nmプロセスの「ZEN2」アーキテクチャで構成されており、第1世代 EPYCに採用されていた「Zen」と比較すると、IPC(Instruction Per Clock-cycle)が15%ほど改善され、特に浮動小数点演算時の実行効率は「Zen」に比べて2倍に向上している。
製造プロセスルールを微細化したことにより、より小さな底面積で製造することが可能となり1つのパッケージに実装できるCPUダイの数が最大8つに増加。これにより性能/消費電力比が大幅に改善、導入におけるコストとメンテナンス費用削減に貢献しています。

このほか、セキュリティ面も強化されており「AMD Secure Processor」と呼ばれるセキュリティチップを内蔵、Arm Cortex-A5をベースとしたマイクロコントローラで独自にセキュアOSが動作している。
暗号化鍵の管理機能も備えておりメモリの暗号化(SME:AMD Secure Memory Encryption)、仮想マシンの暗号化(SEV:AMD Secure Encrypted Virtualization)機能により仮想マシン環境全体の安全性を引き上げている。

Gen2 EPYC
第2世代 EPYC プロセッサー

業界初のPCI-Express 4.0対応

AMD 第2世代 EPYC™はサーバープロセッサーとして初めてPCIe 4.0をサポートしています。PCIe 4.0は、PCIe 3.0の2倍のI / Oパフォーマンスを提供、HPCクラスターを結び付けるネットワーク帯域幅を2倍にします。1ソケット時のPCIeレーン数は128レーン。2ソケット時は既存プラットフォームでは同じ128レーン、新プラットフォームにより162レーンのPCIe 4.0がサポートされます。GPUアクセラレーター、NVMeドライブに高速で接続でき、統合ディスクコントローラーを使用することでPCIe RAIDコントローラーのボトルネックなしにストレージにアクセスすることが可能です。

PCI Express 4.0
帯域が2倍に向上
仕様は改良の為、予告なく変更する場合があります。
GPU NVIDIA A100 Tensor コア GPU x8基
GPUメモリ 合計320GB
NVIDIA NVSwitch x6
電源 200V専用電源
消費電力 最大6.5 kW
プロセッサー x 2基
AMD 第2世代 EPYC™ プロセッサー
7742 64C/128TH 2.25GHz / 3.40GHz DDR4-3200MHz L3 256MB 225W
システムメモリ 1TB
ネットワークI/F
  • シングルポート x8
  • Mellanox ConnectX-6 VPI 200Gb/s HDR InfiniBand
  • デュアルポート x1
  • Mellanox ConnectX-6 VPI 10/25/50/100/200Gb/s Ethernet
ストレージ
  • OS
  • 1.92TB M.2 NVMe ドライブ ×2
  • 内部ストレージ
  • 15 TB (4 x 3.84TB) U.2 NVMe ドライブ
ソフトウェア
  • Ubuntu Linux OS 64bit
重量 123kg
梱包重量 143kg
サイズ 6U ラックマウント (外形寸法:W482.3mm x H264mm x D897.1mm)
運用温度範囲 5℃~30℃
保守
  • 3年間または5年間のオンサイトサービス(標準)
  • 3年間または5年間のDGX A100 Comprehensive Media Retention Services (CMR) (オプション)
  • 3年間または5年間のDGX A100 SSD Media Retention Services (SDMR) (オプション)
CPU 税別価格

※上記価格は標準構成(CPUx2、メモリ32GB)での参考価格です。お見積り、お問い合わせ(販売価格、構成を変更した場合の価格、ご質問等)はお見積りフォームよりお願いいたします。

Xeon Platinum 8180 (2.50GHz 28C/56TH) ¥,000~
Xeon Platinum 8168 (2.70GHz 24C/48TH) ¥,000~
Xeon Gold 6154 (3.00GHz 18C/36TH) ¥,000~
Xeon Gold 6136 (3.00GHz 12C/24TH) ¥,000~
Xeon Gold 6134 (3.20GHz 8C/16TH) ¥,000~

■お客様情報

お名前(ご担当者様氏名) 必須
法人名・組織名・個人 必須
E-Mail 必須
お電話番号
FAX番号
都道府県
支払方法
再見積りをご希望の方は
弊社担当者名をご記入ください。

■個人情報保護方針について

※ご記入いただいた個人情報はお取引き、ご依頼の保守サービスのみに使用されます