日本コンピューティングシステム(JCS) 日本コンピューティングシステム(JCS)は機械学習用途のGPGPU、研究用途のHPCを多くの企業、各省庁・各大学へ数多く納入した実績を誇るITサプライヤーです
03-3821-3200
製品情報 Tesla nvidia TeslaAMD Radeon Serverラックマウントサーバーサーバー+RAID タワー型サーバー ブレードサーバーストレージDASNASRAIDシステムワークステーションタワー型ワークステーションキューブ型 デスクトップPC ミッドタワーモデルスリム&コンパクトモデルHPC SolutionsHPC OEM/ODM オプション catalog

Supermicro カスタムオーダー
 

General-Purpose computing on Graphics Processing UnitsNVIDIA GPGPU ソリューション

4UラックマウントGPGPUモデル NVIDIA HGX A100 8基搭載

intel xeon gen3
VCX-4U06LA002-G.jpg

画像は実際の製品と異なる場合があります。

VCX-4U06LA002-G新製品

4UラックマウントシャーシにNVIDIA HGX A100を最大8基搭載する超高密度GPGPUモデルです。本製品は、新世代のCPUマイクロアーキテクチャが採用された第3世代 インテル Xeon スケーラブル・プロセッサーを2基搭載しシステム全体での性能が引き上げられるとともに、PCIe 4.0接続の高速なネットワーク帯域幅により高密度なGPUコンピュートノードを構築することが可能でTCOを大幅に削減します。

主な仕様
GPU NVIDIA HGX A100 x 8
CPU 第3世代 インテル Xeon スケーラブル・プロセッサー x 2
最大CPUコア数 80
最大メモリ 8TB
ドライブベイ 2.5" x 6
ケース 4U

AIワークロードを統合する超高密度GPGPUモデル

NVIDIA V100の後継であるNVIDIA HGX A100を8基搭載し、あらゆるAIワークロードに対応する4Uラックマウント超高密度GPGPUモデルです。
GPU間通信の帯域幅が前世代から2倍となり、合計320GBのGPUメモリを搭載。そのAI性能は世界最高峰である5PFLOPSを誇り、Multi-instance GPU(MIG)機能により複数のワークロードをシステム当たり最大56のインスタンスに分割し同時に実行することで、分析から学習、および推論に至るまでの多様なワークフロー全体を加速させます。

また、システム全体がGPU性能を最大限に引き出せるよう設計されており、PCIe 4.0の拡張スロット、オプションにより10GbE、100Gb/s InfiniBandポートをサポート。HPC、AI・Deep Learningに必要とされる非常に高い並列演算処理能力と高速なネットワーク環境を備えます。

NVIDIA A100 Tensor Core GPU(HGX)搭載

NVIDIA A100 Tensor Core GPUはAIとHPC用途のためにデータセンター向けGPUとして開発されたVolta世代の後継として製造プロセスルール7nmのAmpereアーキテクチャを採用。第3世代のTensorコアを実装し、BFloat16、Tensor Float 32を新たにサポート、前世代のVoltaと比較しFP32演算、INT8のディープラーニング推論処理において20倍の性能を実現し、トレーニングと推論の両方が強化されています。
また、Multi-instance GPU(MIG)機能により単一のA100を最大7個のGPUとして扱うことが可能で複数のユーザーが独立したインスタンスとして利用できます。

  • Ampereアーキテクチャ
  • 世界最大のトランジスタ数540億の7nmプロセス チップ

  • 第3世代Tensorコア
  • TF32を導入しAI性能が20倍に向上

  • 第3世代NVLinkとNVSwitch
  • GPU間を相互に接続するNVLinkは前世代比で2倍のスループレットに向上し600GB/sで接続可能。

  • 構造的疎性による推論の高速化
  • 「疎行列」(Sparse Matrix)演算への対応と最適化によりAI性能を2倍高速化

  • Multi-instance GPU(MIG)機能
  • 単体のA100を最大7つの独立したインスタンスに分割し、複数ユーザーが互いに影響させることなく各自のワークロードを同時に実行できます。

  • PCI Express Gen 4対応
  • 汎用性を高めストレージ、ネットワークを高速化。

NVIDIA A100 Tensor Core GPU(HGX) の仕様
 
NVIDIA HGX A100
NVIDIA HGX A100
GPU アーキテクチャ NVIDIA Ampere
フォームファクタ SXM4
FP64 CUDA コア 3,456
FP32 CUDA コア 6,912
Tensorコア 432
倍精度演算性能 FP64 : 9.7TFLOPS
FP64 Tensor コア : 19.5TFLOPS
単精度演算性能 FP32 : 19.5 TFLOPS
TF32 Tensor コア : 156TFLOPS / 312TFLOPS*
半精度演算性能(FP16) 312TFLOPS / 624TFLOPS*
BFLOAT16 312TFLOPS / 624TFLOPS*
整数性能 INT8 : 624TOPS / 1,248TOPS*
INT4 : 1,248TOPS / 2,496TOPS*
GPUメモリ 80GB HBM2e
メモリ帯域幅 2,039 GB/sec
ECC 対応
GPU間接続帯域 600 GB/sec
システム接続 NVIDIA NVLink
PCIe Gen4
マルチインスタンスGPU 最大7分割
最大消費電力 400 W
主要アプリケーション実行性能 100%
冷却方式 パッシブ(冷却ファンなし)
API CUDA、DirectCompute、OpenCL、OpenACC
*スパース行列演算実行時

第3世代 インテル Xeon スケーラブル・プロセッサー搭載

「インテル® Xeon® スケーラブル・プロセッサー」は様々な種類のワークロードやパフォーマンスレベルに最適化され、ミッションクリティカルなエンタープライズ向けから、コストパフォーマンスを重視したエントリー向けまでご予算、ご用途に合わせて柔軟な選択が可能なプロセッサーです。
新たに"メッシュインターコネクト"アーキテクチャを採用しCPUコアやキャッシュ、メモリコントローラおよびPCI Expressをタイル状に配置する事でCPU内データ転送の距離短縮に成功しました。 この事により、従来製品と比較しLast Level Cache(LLC)へのアクセス高速化、PCIeバンド幅や消費電力の抑制およびレイテンシ低減など、プロセッサーのパフォーマンスと効率の向上に多大な効果を発揮します。

2020年にリリースされたインテル 第3世代 Xeon スケーラブル・プロセッサー「Cooper Lake-SP」は、大規模サーバーをターゲットとし4,8ソケットに対応、最大で4.5TBの大容量メモリに対応します(*Optane Persistent Memory Gen2 併用時)。 続いて2021年にリリースされたインテル 第3世代 Xeon スケーラブル・プロセッサー「Ice Lake-SP」は、1,2ソケットに対応しメインストリームサーバー向けとしてリリースされました。「Ice Lake-SP」はプロセスルールが10nmで製造されることにより微細化し、CPUコアの数が最大40コアまで増加した他、新世代のCPUマイクロアーキテクチャが採用されたことによりCPUコア内部のフロントエンドや実行ユニット、キャッシュ階層も大幅に改良され、パッケージ全体での性能が引き上げられています。
また、メモリコントローラ、CPUとCPU間を接続するUPI、PCI Express 4.0 64レーンに対応するなど、ストレージやEthernetを接続するためのI/Oコントローラ周りも強化され、システム全体の性能が強化されています。 既存のAVX512にも新たな拡張命令が追加され、暗号化や復号化時の性能も大きく引き上げられています。
メモリは8チャネル、DDR4-3200に対応し、第2世代不揮発性メモリ「Intel Optane DC Persistent Memory 200シリーズ」にも対応。1CPUあたり8スロットまでの搭載が可能で、大容量メモリを安価に実装することが可能となりました。

3rd Gen Intel® Xeon® Scalable Processors

世代別比較
  第1世代 Xeon
スケーラブル
第2世代 Xeon
スケーラブル
第3世代 Xeon
スケーラブル
第3世代 Xeon
スケーラブル
コードネーム Skylake-SP Cascade Lake-SP Cooper Lake-SP Ice Lake-SP
リリース年 2017年 2019年 2020年 2021年
製造プロセスルール 14nm 14nm 14nm 10nm
最大CPUコア 28 28 28 40
CPUソケット LGA3647 LGA3647 FCLGA4189 FCLGA4189
対応ソケット数 1,2,4,8 1,2,4,8 4,8 1,2
メモリ DDR4-2666 DDR4-2933 DDR4-3200 DDR4-3200
メモリチャネル 6 6 6 8
Optane DC Persistent Memory N / A Gen1 対応 Gen2 対応 Gen2 対応
PCI Express Gen3 48レーン Gen3 48レーン Gen3 48レーン Gen4 64レーン
チップセット C620 C620 C621A C621A

多彩なCPUラインナップ

インテル Xeon スケーラブル・プロセッサーはプラチナ、ゴールド、シルバーの3つにカテゴライズされ、ミッションクリティカルなエンタープライズ用途からコストパフォーマンスを重視したエントリー向けまで要求されるスペックに応じて数多くのSKUから選択出来ます。
また、第3世代 Xeon スケーラブル・プロセッサーは様々なアプリケーションや目的に最適化したSKUが用意されています。

 
Xeon platinum
Platinum
Xeon gold
Gold
Xeon silver
Silver
  Platinum
8300
Gold
6300
Gold
5300
Silver
4300
最大コア数 40コア 32コア 26コア 20コア
最大TDP(W) 270W 235W 185W 150W
対応ソケット数(Ice Lake-SP) 1,2 1,2 1,2 1,2
対応ソケット数(Cooper Lake-SP) 4,8 4,8 4,8 N/A
メモリチャネル(Ice Lake-SP) 8 8 8 8
メモリチャネル(Cooper Lake-SP) 6 6 6 N/A
DDR4 スピード 3200/2933 3200/2933/2666 2933*/2666 2666
Optane DC
Persistent Memory
YES YES YES YES*
ターボブーストテクノロジ Yes Yes Yes Yes
HTテクノロジ Yes Yes Yes Yes
PCIe レーン 64レーン 64レーン 64レーン 64レーン

*一部SKUのみ

SKU構成(型番末尾アルファベット)
HL メモリ容量4.5TBまで対応 *Optane Persistent Memory Gen2 併用時
H メモリ容量1.12TBまで対応
Q 水冷向け
N ネットワーク及びNFV向け
M メディア処理向け
P IaaS(Infrastructure as a Service)最適化
V SaaS(Software as a Service)最適化
S Intel SGXエンクレーブ領域最大化
T ロングライフ/熱対策
Y Intel SST (Speed Select Technology) 2.0対応
U シングルソケット

PCI-Express 4.0対応

本製品はPCIe 4.0をサポートしています。PCIe 4.0は、PCIe 3.0の2倍のI / Oパフォーマンスを提供、HPCクラスターを結び付けるネットワーク帯域幅を2倍にします。1ソケット時のPCIeレーン数は128レーン。2ソケット時は既存プラットフォームでは同じ128レーン、新プラットフォームにより162レーンのPCIe 4.0がサポートされます。GPUアクセラレーター、NVMeドライブに高速で接続でき、統合ディスクコントローラーを使用することでPCIe RAIDコントローラーのボトルネックなしにストレージにアクセスすることが可能です。

PCI Express 4.0
帯域が2倍に向上
仕様は改良の為、予告なく変更する場合があります。
プロセッサー x 2基
チップセット Intel® C621A チップセット
メモリ DDR4-3200/2933MHz ECC RDIMM/LRDIMM
メモリスロット 32スロット(最大8TB)
ストレージ 2.5インチ
ドライブベイ 2.5インチ NVMe/SATA/SAS x6(前面x6 ホットスワップ)
2.5インチ NVMe x4(背面x4 *オプション)
M.2 インターフェイス:M.2 NVMe/SATA
フォームファクタ: 2280/22110 x2
オプティカルドライブ USB接続 外付けDVDマルチドライブ(オプション)
グラフィックス onboard
GPU NVIDIA HGX A100 80GB x8基
ネットワークI/F
標準構成
N/A
オプション
  • 200Gb/s InfiniBand,Ethernet 2ポート (QSFP56)
  • 100Gb/s InfiniBand,Ethernet 1ポート (QSFP56)
  • 25GbE 2ポート (SFP28)
  • 10GbE 2ポート (RJ45)
  • 管理I/F IPMI 2.0, KVM-over-LAN (前面)
    I/Oポート VGA x1(前面)
    USB 3.0 x2(前面)
    拡張スロット PCI-Express 4.0 x16(前面x2スロット、背面x8スロット LP )
    PCI-Express 4.0 x16(背面x1スロット OCP 3.0 )
    ケース 4U ラックマウント (外形寸法:W446mm x H174mm x D900mm)
    電源 100V 1200W / 200V 1800W リダンダント電源 (80-plus Titanium 高効率電源)
    対応OS(別売)
    • CentOS 64bit
    • AlmaLinux 64bit
    • RedHat Enterprise Linux Server 64bit
    • ※その他Linuxディストリビューションについてはご相談ください。
    ソフトウェア NVIDIA CUDA(デバイスドライバ、ツールキット、CUDA SDK開発環境、コンパイラ等)
    * Deep Learning各種フレームワークのインストールにつきましてはお問い合わせください。
    Deep Learning用
    フレームワーク
    DIGITS、TensorFlow、Chainer、Caffe、Pytorch、Docker
    保守 1年間全国出張オンサイトサービス(標準)
    3年間全国出張オンサイト(オプション)
    CPU 税別価格

    ※上記価格は標準構成(CPUx2、メモリ32GB)での参考価格です。お見積り、お問い合わせ(販売価格、構成を変更した場合の価格、ご質問等)はお見積りフォームよりお願いいたします。

    Xeon Platinum 8180 (2.50GHz 28C/56TH) ¥,000~
    Xeon Platinum 8168 (2.70GHz 24C/48TH) ¥,000~
    Xeon Gold 6154 (3.00GHz 18C/36TH) ¥,000~
    Xeon Gold 6136 (3.00GHz 12C/24TH) ¥,000~
    Xeon Gold 6134 (3.20GHz 8C/16TH) ¥,000~

    ■システム標準

    CPU x 2基
    チップセット Intel ® C621A チップセット
    メモリ
    ストレージ 2.5インチ x
    追加ストレージ NVMe
    M.2 x
    オプティカルドライブ
    グラフィックス
    (画面出力用)

    OpenGLライブラリを使用する場合は画面出力用にNVIDIA製ビデオカードが別途必要となります。
    GPU
    ネットワークI/F *別途ネットワークカードが必要です
    追加ネットワーク I/F
    管理I/F IPMI 2.0, KVM-over-LAN
    ケース 4Uラックマウント(外形寸法:W446mm x H174mm x D900mm)
    スライドレール 専用スライドレール
    電源 100V 1200W / 200V 1800W リダンダント電源 (80-plus Titanium 高効率電源)
    電源ケーブル
    保守
    HDD返却不要サービス

    ■システム拡張

    RAIDカード
    RAIDレベル
    OS
    その他のOS
    使用予定OS
    コンパイラ
    ご指定のコンパイラをご記入ください。
    フレームワーク
    (複数選択可)
    キーボード
    マウス
    LCDモニタ
    ドロワー
    UPS
    UPS管理ソフト
    Ubuntu使用の場合、APC PowerChute Business Editionでは動作しません。apcupsdでのご利用となります。

    ■見積り台数

    見積り台数

    ■お見積送付先

    お名前(ご担当者様氏名) 必須
    法人名・組織名・個人 必須
    種別
    部署名
    E-Mail Address 必須
    お電話番号
    FAX番号
    都道府県
    支払方法
    再見積りをご希望の方は
    弊社担当者名をご記入ください。
    ■個人情報保護方針について
    必須