- NVIDIA データセンターGPU 搭載製品
- VCXS-2UDR4H2L1301-G
- NVIDIA RTX 搭載製品
- VCXS-2UDR4H2L1301-G
画像は実際の製品と異なる場合があります。
NVIDIA H100 NVL 最大4基搭載
VCXS-2UDR4H2L1301-G
16 枚
4 基
4 ベイ
2 ベイ
2U
200V
冗長電源
1GbE
主な仕様
- 第5世代 インテル® Xeon® スケーラブル・プロセッサー 2基(Emerald Rapids / LGA4677 )
- DDR5-5600 メモリ 16スロット
- 2 スロット PCIe GPU 最大4基 搭載可能
- NVIDIA H100 NVL 搭載可能
- NVIDIA L40S 搭載可能
- NVIDIA RTX™ 6000 Ada 世代搭載可能
- 3.5 インチ ホットスワップ 4ベイ
- 2.5 インチ ホットスワップ 2ベイ
- 1 ギガビット イーサネット 2ポート 標準搭載
- 2U ラックマウントサーバー
- 200V専用 リダンダント電源 搭載
製品特長
2UラックマウントシャーシにNVIDIA H100 NVLを最大4基搭載する超高密度GPGPUモデルです。
本製品は高性能GPUを高密度に搭載することで高いエネルギー効率を発揮し、優れた費用対効果でコスト削減を実現します。
「NVIDIA H100 NVL」は1基あたり94GBのメモリを搭載しており、2基の「NVIDIA H100 NVL」をNVLinkで接続することにより188GBもの大容量メモリと7.8TB/秒のメモリ帯域を実現。
ChatGPTのように大量のデータを展開する必要があるLLM (大規模言語モデル)や生成AIの推論に最適化され、GPT-3では前世代のA100と比較して最大12倍高速な推論パフォーマンスをデータセンター規模で提供します。
第5世代 インテル® Xeon® スケーラブル・プロセッサー 搭載
第5世代 インテル® Xeon® スケーラブル・プロセッサー

「インテル® Xeon® スケーラブル・プロセッサー」は様々な種類のワークロードやパフォーマンスレベルに最適化され、ミッションクリティカルなエンタープライズ向けから、コストパフォーマンスを重視したエントリー向けまでご予算、ご用途に合わせて柔軟な選択が可能なプロセッサーです。
第5世代 Xeon スケーラブル・プロセッサー(Emerald Rapids)は第4世代 Xeon スケーラブル・プロセッサー(Sapphire Rapids)と同じ製造プロセスノード、アーキテクチャを引き続き採用していますが、実装方法を見直すことにより性能や電力効率が向上しています。最大42%のAI性能の向上、一般用途の処理が最大21%の性能向上、電力効率においては36%改善されています。
製造プロセスノードは第4世代と同じIntel 7を利用して製造されていますが、パッケージ内部のアーキテクチャを大きく変更。XCCはCPUコアが32個のダイを2つ搭載し、最大64コアのCPUを1つのパッケージで実現。第4世代 Xeon の最大60コアから最大64コアとなっています。
LLC(L3キャッシュ)はダイ毎に160MB実装されており、パッケージ全体で320MBのLLCが搭載され、第4世代 Xeonと比較して約3倍のLLCが実装されています。また、対応メモリもDDR5-5600に引き上げられています。
CPUソケットは第4世代 Xeonと同様となり、BIOSアップデートで第5世代 Xeonへの対応が可能です。
多彩なCPUラインナップ
インテル Xeon スケーラブル・プロセッサーはプラチナ、ゴールド、シルバー、ブロンズの4つにカテゴライズされ、ミッションクリティカルなエンタープライズ用途からコストパフォーマンスを重視したエントリー向けまで要求されるスペックに応じて数多くのSKUから選択出来ます。
また、様々なアプリケーションや目的に最適化したSKUが用意されています。
- 汎用SKU
- 動画配信/分析/仮想化に最適化されたSKU
- 5G/ネットワーク機器向けSKU
- HCI/ストレージ向けSKU
H | データベースと分析 |
---|---|
M | AI およびメディア処理ワークロードに最適化 |
N | ネットワーク / 5G / エッジ |
P | 高周波 VM 環境でのオーケストレーション効率など、IaaS クラウド環境に最適化 |
Q | 液体冷却ソリューションをサポート |
S | ストレージ & HCI |
T | 長期供給 |
U | 1 ソケット構成 |
V | SaaS クラウド環境に最適化 |
Y | Intel SST (Speed Select Technology) 2.0対応 |
+ | 機能 + プロセッサーに含まれるもの |
第5世代 インテル® Xeon® スケーラブル・プロセッサー 一覧
関連製品
第4世代 インテル® Xeon® スケーラブル・プロセッサー 搭載
第4世代 インテル® Xeon® スケーラブル・プロセッサー

「インテル® Xeon® スケーラブル・プロセッサー」は様々な種類のワークロードやパフォーマンスレベルに最適化され、ミッションクリティカルなエンタープライズ向けから、コストパフォーマンスを重視したエントリー向けまでご予算、ご用途に合わせて柔軟な選択が可能なプロセッサーです。

第4世代 Xeon スケーラブル・プロセッサー(Sapphire Rapids)は汎用用途、ネットワーク5G、ストレージ、AI、HPC、データ分析など、実環境でのワークロード性能向上を最優先として開発されました。前世代よりIPC(クロック当たりの処理命令数)の15%増加を目指し、マイクロアーキテクチャの改良、L2/L3キャッシュの拡大、新しいワークロード・アクセラレーター、データセンターの信頼性を高める機能安全のステップ関数などのアーキテクチャ設計がされています。
メモリは最大4800MT/s 8chのDDR5に対応し、CPU直結のPCI Express 5.0は80レーンを備え、CXL(Compute Express Link) 1.1準拠機器も1CPU当たり4つのCXLデバイスをサポートします。
最大の特徴は「タイル設計(チップレット技術)」を採用し、一つのプロセッサーに搭載するチップの枚数や種類を柔軟に変えられることにあり、3種類のタイル構造が採用されています。
MCC | XCC | Max | |
---|---|---|---|
用途 | CPUコアの動作クロックと低レイテンシーを重視 | CPUのコア数を重視 | 最大限の帯域幅を重視 |
ダイ構成 | 1モノリシック・チップ | 4タイルをMDFを使用してインテルのエンベデッド・アルチダイ・インターコネクト・ブリッジ(EMIB)上で接続 | |
コア数 | 最大32 | 最大60 | 最大56 |
TDP範囲 | 125~350W | 225~350W | 350W |
メモリ | DDR5-4800 8チャネル | DDR5-4800 8チャネル 64GB HBM2e |
|
インテル UPI | UPI 2.0 @16GT/s 最大4ウルトラ・パス・インターコネクト |
UPI 2.0 @16GT/s 最大3ウルトラ・パス・インターコネクト |
UPI 2.0 @16GT/s 最大4ウルトラ・パス・インターコネクト |
拡張性 | 1,2,4,8 | 1,2,4 | 1,2 |
PCIe | PCIe 5.0(80レーン) Compute Express Link(CXL)1.1経由で最大4デバイス接続をサポート |
||
セキュリティ | インテル SGX エンクレープ・ページ・キャッシュ(EPC)の最小サイズ 256MB |
インテル SGX(フラットモードのみ) | |
統合型 IP アクセラーレーター |
インテル QAT,インテル DLB、インテル IAA、インテル DSA (各ソリューション最大4デバイス) |
インテル QAT,インテル DLB (各ソリューション最大2デバイス) インテル IAA、インテル DSA (各ソリューション最大1デバイス) |
インテル DSA(4デバイス) |
多彩なCPUラインナップ
インテル Xeon スケーラブル・プロセッサーはプラチナ、ゴールド、シルバー、ブロンズの4つと、CPUに最大64GB(16GBx4)のHBM2e(High Bandwidth Memory)メモリを搭載した「Xeon CPU Max」シリーズにカテゴライズされ、ミッションクリティカルなエンタープライズ用途からコストパフォーマンスを重視したエントリー向けまで要求されるスペックに応じて数多くのSKUから選択出来ます。
また、様々なアプリケーションや目的に最適化したSKUが用意されています。
- 汎用SKU
- 動画配信/分析/仮想化に最適化されたSKU
- 5G/ネットワーク機器向けSKU
- HCI/ストレージ向けSKU
- Xeon CPU Maxシリーズ
H | データベースと分析 |
---|---|
M | AI およびメディア処理ワークロードに最適化 |
N | ネットワーク / 5G / エッジ |
P | 高周波 VM 環境でのオーケストレーション効率など、IaaS クラウド環境に最適化 |
Q | 液体冷却ソリューションをサポート |
S | ストレージ & HCI |
T | 長期供給 |
U | 1 ソケット構成 |
V | SaaS クラウド環境に最適化 |
Y | Intel SST (Speed Select Technology) 2.0対応 |
+ | 機能 + プロセッサーに含まれるもの |
第4世代 インテル® Xeon® スケーラブル・プロセッサー 一覧
関連製品
NVIDIA データセンターGPU Hopper™世代 搭載可能
NVIDIA Hopper™

![]() |
![]() 販売終了 |
|
---|---|---|
FP64(TFLOPS) | 68 | 26 |
FP64 Tensor コア(TFLOPS) | 134 | 51 |
FP32(TFLOPS) | 134 | 51 |
TF32 Tensor コア(TFLOPS) | 1,979 | 756 |
BFLOAT16 Tensorコア(TFLOPS) | 3,958 | 1,513 |
FP16 Tensorコア(TFLOPS) | 3,958 | 1,513 |
FP8 Tensorコア(TFLOPS) | 7,916 | 3,026 |
INT8 Tensorコア(TOPS) | 7,916 | 3,026 |
GPUメモリ | 188GB | 80GB |
GPUメモリー帯域幅 | 7.8TB/s | 2TB/s |
デコーダー | 14 NVDEC 14 JPEG |
7 NVDEC 7 JPEG |
最大消費電力 | 2x 350-400W(構成可能) | 300-350W(構成可能) |
マルチインスタンスGPU | 最大14GPU MIG@12GB | 最大7GPU MIG@10GB |
フォームファクター | 2x PCIe 2スロット |
PCIe 2スロット |
相互接続 | NVIDIA NVLink 600 GB/s PCIe Gen5 128 GB/s |
NVIDIA NVLink 600 GB/s PCIe Gen5 128 GB/s |
NVIDIA AI Enterprise | 含む | 含む |
排熱機構 | パッシブ(冷却ファンなし) | パッシブ(冷却ファンなし) |
大規模AI向けGPU「NVIDIA H100 NVL」
「NVIDIA H100 NVL」は1基あたり94GBのメモリを搭載しており、2基の「NVIDIA H100 NVL」をNVLinkで接続することにより188GBもの大容量メモリと7.8TB/秒のメモリ帯域を実現。
ChatGPTのように大量のデータを展開する必要があるLLM (大規模言語モデル)や生成AIの推論に最適化され、GPT-3では前世代のA100と比較して最大12倍高速な推論パフォーマンスをデータセンター規模で提供します。
NVIDIA Hopper™ アーキテクチャ
最新の TSMC 4N プロセスを利用し、800 億個以上のトランジスタで作られた Hopper は、NVIDIA H100 Tensor コア GPU の中核をなす 5 つの画期的なイノベーションを持ち、それにより世界最大の言語生成モデルである NVIDIA の Megatron 530B チャットボットの AI 推論で、前世代と比較して 30 倍という驚異的なスピードアップを実現します。

NVIDIA Hopper™ アーキテクチャのイノベーション
Transformer Engine
NVIDIA Hopper™ アーキテクチャは、AI モデルのトレーニングを高速化するように設計された Transformer Engine との組み合わせで Tensor コア テクノロジを前進させます。Hopper Tensor コアでは FP8 と FP16 の精度を混在させることができます。トランスフォーマーの AI 計算が劇的に速くなります。Hopper はまた、TF32、FP64、FP16、INT8 の精度の浮動小数点演算 (FLOPS) を前世代の 3 倍にします。Transformer Engine と第 4 世代 NVIDIA® NVLink® と組み合わせることで Hopper Tensor コアは HPC と AI のワークロードを桁違いに高速化します。
NVLink Switch システム
ビジネスの最先端では、エクサスケール HPC と兆パラメーター AI モデルを大規模にスケールするために、サーバークラスター内の各 GPU 間に高速でシームレスな通信が必要です。 第 4 世代 NVLink は、スケールアップ相互接続です。新しい外部 NVLink Switch と組み合わせると、NVLink Switch システムは、PCIe Gen5 の 7 倍以上の帯域幅である、GPU あたり 900 ギガバイト/秒 (GB/s) の双方向で複数のサーバーにわたるマルチ GPU IO (入出力) を拡張することが可能になりました。NVLink Switch システムは、最大 256 基の H100 を接続したクラスターをサポートし、Ampere で InfiniBand HDRの 9 倍高い帯域幅を実現します。
さらに、NVLink は、これまで InfiniBand でしか利用できなかった SHARP と呼ばれる In-network Computing をサポートし、57.6 テラバイト/秒 (TB/s) の All-to-All の帯域幅を実現しながら、FP8 スパース AI コンピューティングで 1 exaFLOPS という驚くべき性能を提供することができるようになりました。
NVIDIA コンフィデンシャル コンピューティング
データはストレージに保存されているときと、ネットワーク間を転送されるときは暗号化されますが、処理中は保護が解除されます。この保護のない時間に対処するのが NVIDIA コンフィデンシャル コンピューティングです。使用中のデータとアプリケーションを保護します。NVIDIA Hopper™ アーキテクチャは、コンフィデンシャル コンピューティング機能を持った世界初のアクセラレーテッド コンピューティング プラットフォームを導入するものです。
ハードウェアベースの強力なセキュリティを持ち、ユーザーはオンプレミス、クラウド、エッジでアプリケーションを実行できます。許可のないエンティティは使用中のアプリケーション コードやデータを表示することも、変更することもできません。データとアプリケーションの機密性と完全性が守られ、AI トレーニング、AI 推論、HPC ワークロードのかつてない高速化を利用できます。
第 2 世代 MIG
マルチインスタンス GPU (MIG) という機能では GPU を、完全に分離された複数の小さなインスタンスに分割できます。それぞれにメモリ、キャッシュ、コンピューティング コアが与えられます。Hopper アーキテクチャは MIG の機能をさらに強化するものです。最大 7 個の GPU インスタンスで仮想環境のマルチテナント/マルチユーザー構成をサポートします。コンフィデンシャル コンピューティングによってハードウェアおよびハイパーバイザー レベルで各インスタンスが分離されるため、安全です。MIG インスタンスごとに専用のビデオ デコーダーが与えられ、共有インフラストラクチャで安定したハイスループットのインテリジェント ビデオ解析 (IVA) が実現します。そして、Hopper の同時実行 MIG プロファイリングを利用すると、管理者はユーザーのために正しいサイズの GPU 高速化を監視し、リソース割り当てを最適化できます。
研究者のワークロードが比較的少ない場合、完全な CSP インスタンスを借りる代わりに、MIG を利用して GPU の一部を安全に分離することを選択できます。保存中、移動中、処理中のデータが安全なため、安心です。
DPX 命令
動的プログラミングは、複雑な再帰的問題を単純な小問題に分割して解決するアルゴリズム手法です。小問題の結果を格納しておけば、後で再計算する必要がありません。幾何級数的問題の解決にかかる時間が短縮され、その複雑性が緩和されます。動的プログラミングは幅広い使用例で一般的に使用されています。
たとえば、Floyd-Warshall は、出荷車両と配送車両のための最短経路を地図に表示する経路最適化アルゴリズムです。Smith-Waterman アルゴリズムは DNA 配列とタンパク質フォールディングの応用に使用されます。 Hopper の DPX 命令は、従来のデュアル ソケット CPU のみのサーバーと比較して 40 倍、NVIDIA Ampere アーキテクチャ GPU と比較して 7 倍の速さで、動的プログラミング アルゴリズムを加速します。これにより、病気の診断、ルーティングの最適化、さらにはグラフ分析を飛躍的に高速化します。
関連製品
NVIDIA データセンターGPU Ada Lovelace世代 搭載可能
NVIDIA Ada Lovelace

![]() |
![]() 販売終了 |
![]() |
|
---|---|---|---|
GPUメモリ | 48GB GDDR6 ECC付き | 48GB GDDR6 ECC付き | 24GB GDDR6 ECC付き |
メモリー帯域幅 | 864GB/s | 864GB/s | 300GB/s |
インターコネクト インタフェース | PCIe Gen4x16: 64GB/s 双方向 | PCIe Gen4x16: 64GB/s 双方向 | PCIe Gen4x16: 64GB/s |
CUDA コア数 | 18,176 | 18,176 | 7,424 |
NVIDIA 第3世代 RT コア | 142 | 142 | 58 |
NVIDIA 第4世代 Tensor コア | 568 | 568 | 232 |
RT コア 性能 TFLOPS | 212 | 209 | – |
FP32 TFLOPS | 91.6 | 90.5 | 30.3 |
TF32 Tensor コア TFLOPS | 183 | 366 | 90.5 | 181 | 120 |
BFLOAT16 Tensor コア TFLOPS | 362.05 | 733 | 181.05 | 362.1 | 242 |
FP16 Tensor コア | 362.05 | 733 | 181.05 | 362.1 | 242 |
FP8 Tensor コア | 733 | 1466 | 362 | 724 | 485 |
ピーク INT8 Tensor TOPS | 733 | 1466 | 362 | 724 | 485 |
ピーク INT4 Tensor TOPS | 733 | 1466 | 724 | 1448 | – |
最大消費電力 | 350W | 300W | 72W |
フォームファクター | 4.4” (H) x 10.5” (L) 2スロット |
4.4” (H) x 10.5” (L) 2スロット |
ロープロファイル 1スロット |
排熱機構 | パッシブ(冷却ファンなし) | パッシブ(冷却ファンなし) | パッシブ(冷却ファンなし) |
ディスプレイポート | 4 x DisplayPort 1.4a | 4 x DisplayPort 1.4a | N/A |
マルチインスタンスGPU | N/A | N/A | N/A |
NVLink | N/A | N/A | N/A |
NVIDIA Ada Lovelace アーキテクチャ

Ada GPU アーキテクチャは、レイ トレーシングと AI ベースのニューラル グラフィックスに革新的な性能を実現できるように設計されています。GPU 性能のベースラインが劇的に上がり、レイ トレーシングとニューラル グラフィックスの転換点となります。
CUDA® コア
Transformer Engine
単精度浮動小数点 (FP32) スループットの高速化と電力効率の向上により、3D モデル開発や CAE シミュレーションなどのワークフローでパフォーマンスが大幅に向上します。混合精度ワークロード向けの拡張 16 ビット数学機能 (BF16) をサポート。
第 3 世代 RT コア
スループットとコンカレント レイ トレーシングとシェーディング機能が強化され、レイ トレーシングのパフォーマンスが向上し、製品の設計/アーキテクチャ、エンジニアリング、建設のワークフローのレンダリングが高速化します。ハードウェアでモーション ブラーを高速化し、驚異的なリアルタイム アニメーションを実現する実物のようなデザインをご覧ください。
第 4 世代 Tensor コア
構造的なスパース性と最適化された TF32 形式のハードウェア サポートにより、すぐにパフォーマンスが向上し、AI とデータ サイエンス のモデル トレーニングが高速化します。DLSS を含む AI により強化されたグラフィックス機能を加速させ、選ばれたアプリケーションで優れたパフォーマンスで高解像度を実現します。
48GB の GPU メモリ
48GB の超高速 GDDR6 メモリで、データ サイエンス、シミュレーション、3D モデリング、レンダリングなどの、メモリ負荷の高いアプリケーションやワークロードに対応します。vGPU ソフトウェアを使用して複数のユーザーにメモリを割り当て、クリエイティブ チーム、データ サイエンス チーム、デザイン チーム間で大規模なワークロードを分散します。
仮想化対応
NVIDIA 仮想 GPU (vGPU) ソフトウェア を活用した次世代の改善により、リモート ユーザーがより大規模かつパワフルな仮想ワークステーションのインスタンスを使用できるようになり、高度なデザイン、AI、計算処理におけるより大規模なワークフローが可能になります。
PCI Express Gen 4
PCI Express Gen 4 対応により、PCIe Gen 3 の 2 倍の帯域幅を提供することで、AI やデータサイエンスなどのデータ集約型タスク向けに CPU メモリからのデータ転送速度が向上します。
データ センターの効率性とセキュリティ
NVIDIA L40 は、24 時間 365 日稼動のエンタープライズ データ センター運用に最適化されており、最大限のパフォーマンス、耐久性、アップタイムを確保するために、NVIDIA によって設計、構築、広範囲にテスト、サポートされています。受動冷却、フルハイト フルレングス (FHFL)、デュアルスロット デザイン、最大 300W のボード電力などの特徴を備え、主要な OEM ベンダーのさまざまな筐体構成に収まります。最新のデータ センター標準を満たし、NEBS レベル 3 に対応し、Root of Trust 技術によるセキュア ブートを備え、データ センターにさらなるセキュリティ層を提供します。
関連製品
NVIDIA データセンターGPU Ampere世代 搭載可能
NVIDIA Ampere

![]() 販売終了 |
![]() 販売終了 |
![]() 販売終了 |
![]() |
![]() |
![]() |
|
---|---|---|---|---|---|---|
GPUメモリ | 80GB HBM2e | 48GB GDDR6 | 24GB HBM2 | 4x 16GB GDDR6 | 24GB GDDR6 | 16GB GDDR6 |
メモリー帯域幅 | 1,935GB/s | 696GB/s | 933GB/s | 200GB/s | 600GB/s | 200GB/s |
最大消費電力 | 300W | 300W | 165W | 250W | 150W | 40W-60W(初期設定60W) |
マルチインスタンスGPU | 最大7GPU | N/A | 4GPU 6GB 2GPU 12GB 1GPU 24GB |
N/A | N/A | N/A |
フォームファクター | PCIe 2スロット |
2スロット FHFL |
2スロット FHFL |
2スロット FHFL |
1スロット FHFL |
1スロット LP |
NVLink | NVIDIA NVLink 600 GB/s
PCIe Gen4 64 GB/s |
2 ウェイ ロー プロファイル (2 スロット) |
NVIDIA NVLink 200 GB/s
PCIe Gen4 64 GB/s |
N/A | N/A | N/A |
排熱機構 | パッシブ(冷却ファンなし) | パッシブ(冷却ファンなし) | パッシブ(冷却ファンなし) | パッシブ(冷却ファンなし) | パッシブ(冷却ファンなし) | パッシブ(冷却ファンなし) |
FP64(TFLOPS) | 9.7 | 0.58464 | 5.2 | 4x 0.00702 | – | 0.11702 |
FP64 Tensorコア(TFLOPS) | 19.5 | – | 10.3 | – | – | – |
Tensor Float 32(TFLOPS) | 156 / 312 | 74.8 / 149.6 | 82 / 165 | 4×9 / 4x 18 | 62.5 / 125 | 9 / 18 |
BFLOAT16 Tensorコア(TFLOPS) | 312 / 624 | 149.7 / 299.4 | 165 / 330 | 4x 17.9 / 4x 35.9 | 125 / 250 | 18 / 36 |
FP16 Tensorコア(TFLOPS) | 312 / 624 | 149.7 / 299.4 | 165 / 330 | 4x 17.9 / 4x 35.9 | 125 / 250 | 18 / 36 |
INT8 Tensorコア(TOPS) | 624 / 1248 | 299.3 / 598.6 | 330 / 661 | 4×35.9 / 4x 71.8 | 250 / 500 | 36 / 72 |
実アプリ性能 | 90% | – | – | – | – | – |
NVIDIA Ampere アーキテクチャ
NVIDIA A100 Tensorコア GPUはあらゆる規模で前例のない高速化を実現し、世界最高のパフォーマンスを誇るエラスティック データ センターにAI、データ分析、HPCのためのパワーを与えます。NVIDIA Ampereアーキテクチャで設計されたNVIDIA A100は、NVIDIA データ センター プラットフォームのエンジンです。A100は、前世代と比較して最大20倍のパフォーマンスを発揮し、7つのGPUインスタンスに分割して、変化する需要に合わせて動的に調整できます。40GBと80GB のメモリ バージョンで利用可能なA100 80GBは、毎秒2テラバイト (TB/秒)超えの世界最速メモリ帯域幅を実現し、最大級のモデルやデータセットを解決します。

NVIDIA Ampere アーキテクチャのイノベーション
第3世代 Tensorコア
NVIDIA Volta™ アーキテクチャで最初に導入されたNVIDIA Tensorコア テクノロジは、AIに劇的な高速化をもたらしました。トレーニング時間を数週間から数時間に短縮し、推論を大幅に加速します。NVIDIA Ampereアーキテクチャはこのイノベーションを基盤としており、新しい精度である Tensor Float 32 (TF32) と64ビット浮動小数点 (FP64) を導入することで、AI の導入を加速して簡素化し、Tensor コアのパワーを HPC にもたらします。
TF32はFP32と同じように動作しますが、コードを変更しなくても、AIを最大20倍スピードアップします。 NVIDIA Automatic Mixed Precisionを使用すると、研究者はわずか数行のコードを追加するだけで、自動混合精度とFP16でさらに2倍のパフォーマンスを得られます。また、bfloat16、INT8、INT4に対応しているので、NVIDIA Ampere アーキテクチャのTensorコア GPUのTensorコアは、AIのトレーニングと推論の両方に対する、非常に汎用性の高いアクセラレータです。また、TensorコアのパワーをHPCにもたらすA100およびA30 GPUでは、完全なIEEE準拠のFP64精度での行列演算を実行できます。
Multi-Instance GPU (MIG)
あらゆるAIとHPC アプリケーションがアクセラレーションの恩恵を受けることができますが、すべてのアプリケーションがGPUのフル パフォーマンスを必要とするわけではありません。Multi-Instance GPU (MIG) は、 A100とA30 GPU PU でサポートされている機能であり、ワークロードがGPUを共有することを可能にします。MIGを利用すると、各GPUを複数のGPUインスタンスに分割できます。各インスタンスは完全に分離され、ハードウェア レベルで保護され、専用の高帯域幅メモリ、キャッシュ、コンピューティング コアを与えられます。これにより開発者は、大小を問わずあらゆるアプリケーションに対して画期的な高速化を利用できるようになり、サービス品質も保証されます。また、IT管理者は、適切なサイズのGPUアクセラレーションを提供することで利用率を最適化し、ベアメタル環境と仮想化環境の両方ですべてのユーザーとアプリケーションにアクセスを拡張できます。
第3世代の NVLink
アプリケーションをマルチGPUでスケールさせるには、非常に高速にデータを移動させる必要があります。NVIDIA Ampere アーキテクチャの第3世代 NVIDIA® NVLink® は、GPU 間の直接帯域幅を2倍の毎秒600ギガバイト (GB/s) にします。これは、PCIe Gen4の約10倍です。最新世代の NVIDIA NVSwitch™と組み合わせることで、サーバー内のすべてのGPUが完全なNVLinkの速度で相互に通信し、驚くほど高速なデータ転送が可能になります。 NVIDIA DGX™A100と他の主要なコンピューター メーカーのサーバーは、 NVIDIA HGX™ A100ベースボードを介してNVLinkとNVSwitchのテクノロジを活用し、HPCおよびAIのワークロードに優れたスケーラビリティを提供します。
スパース構造
現代のAIネットワークは大きく、数百万、場合によっては数十億のパラメーターを持ち、ますますその規模は拡大しています。これらのパラメーターのすべてが正確な予測や推論に必要なわけではなく、一部のパラメーターをゼロに変換することで、精度を下げることなくモデルを「スパース」にできます。Tensorコアでは、スパースなモデルのパフォーマンスを最大2倍にできます。スパース機能はAI推論で特に効果を発揮しますが、モデルトレーニングのパフォーマンス向上にも利用できます。
第2世代 RTコア
NVIDIA A40のNVIDIA Ampereアーキテクチャの第2世代RTコアは、映画コンテンツのフォトリアルなレンダリング、建築デザインの評価、製品デザインのバーチャル試作品などのワークロードを大幅にスピードアップします。RTコアはまた、レイ トレーシングされたモーション ブラーのレンダリングをスピードアップし、短時間で結果が得られ、ビジュアルの精度が上がります。さらに、レイ トレーシングをシェーディング機能またはノイズ除去機能と共に同時に実行できます。
よりスマートで高速なメモリ
A100は、データセンターでの膨大な量のコンピューティングを可能にします。コンピューティング エンジンを常に完全に活用するために、A100はこのクラスで最大となる毎秒2テラバイト (TB/s) のメモリ帯域幅を備えています。前世代の2倍以上です。さらに、A100は前世代の7倍となる40メガバイト (MB) のレベル2キャッシュを含む、より大きなオンチップ メモリを搭載しており、コンピューティング パフォーマンスを最大限まで引き上げます。
関連製品
NVIDIA RTX™ Ada Lovelace世代 搭載可能
NVIDIA RTX™ Ada世代

![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
|
---|---|---|---|---|---|---|
GPUメモリ | 48GB GDDR6 | 32GB GDDR6 | 24GB GDDR6 | 20GB GDDR6 | 20GB GDDR6 | 16GB GDDR6 |
メモリー帯域幅 | 960GB/s | 576GB/s | 432GB/s | 360GB/s | 280GB/s | 224GB/s |
ECC | Yes | Yes | Yes | Yes | Yes | Yes |
CUDAコア | 18,176 | 12,800 | 7,680 | 6,144 | 6,144 | 2816 |
Tensorコア | 568 | 400 | 240 | 192 | 192 | 88 |
RTコア | 142 | 100 | 60 | 48 | 48 | 22 |
単精度性能(TFLOPS) | 91.1 | 65.3 | 39.6 | 26.7 | 19.2 | 12.0 |
RTコア性能(TFLOPS) | 210.6 | 151.0 | 91.6 | 61.8 | 44.3 | 27.7 |
Tensor性能(TFLOPS) | 1,457.0 | 1,044.4 | 634.0 | 327.6 | 306.8 | 191.9 |
NVLink | N / A | N / A | N / A | N / A | N / A | N / A |
NVLink帯域幅 | N / A | N / A | N / A | N / A | N / A | N / A |
システムインターフェイス | PCIe 4.0 x16 | PCIe 4.0 x16 | PCIe 4.0 x16 | PCIe 4.0 x16 | PCIe 4.0 x16 | PCIe 4.0 x8 |
最大消費電力 | 300W | 250W | 210W | 130W | 70W | 70W |
排熱機構 | アクティブ | アクティブ | アクティブ | アクティブ | アクティブ | アクティブ |
フォームファクター | 4.4″ H x 10.5″ L 2スロット |
4.4″ H x 10.5″ L 2スロット |
4.4″ H x 10.5″ L 2スロット |
4.4″ H x 9.5″ L 1スロット |
2.7″ H x 6.6″ L 2スロット |
2.7″ H x 6.6″ L 2スロット |
画面出力 | DisplayPort 1.4a x4 | DisplayPort 1.4a x4 | DisplayPort 1.4a x4 | DisplayPort 1.4a x4 | Mini DisplayPort 1.4a x4 | Mini DisplayPort 1.4a x4 |
NVIDIA Ada Lovelace アーキテクチャ

NVIDIA RTX™ Ada 世代は、現代のプロフェッショナル ワークフローの課題に対応する特徴、機能、パフォーマンスを提供します。NVIDIA Ada Lovelace アーキテクチャで構築された RTX 6000 は、第 3 世代の RT コア、第 4 世代の Tensor コア、次世代 CUDA® コアを 48GB のグラフィックス メモリを組み合わせ、かつてないレンダリング、AI グラフィックス、コンピューティング パフォーマンスを実現します。NVIDIA RTX 6000 搭載ワークステーションは、今日の非常に困難なビジネス環境で成功するために必要なものを提供します。
中心となるテクノロジ
NVIDIA CUDA コア
単精度浮動小数点 (FP32) 演算の倍速処理により、デスクトップにおける複雑な 3D のコンピューター支援設計 (CAD) とコンピューター支援エンジニアリング (CAE) などのグラフィックスやシミュレーションのワークフローに適した驚異的なパフォーマンス向上を実現します。
第 3 世代 RT コア
前世代と比較して最大 2 倍のスループットを備えた第 3 世代 RT コアにより、動画コンテンツのフォトリアルなレンダリング、建築デザインの評価、製品デザインの仮想プロトタイプなどのワークロードのための圧倒的な高速化を実現します。このテクノロジにより、レイ トレーシングによるモーション ブラー レンダリングをより高いビジュアル精度で高速化することができます。
第 4 世代 Tensor コア
第 4 世代の Tensor コアは、より高速な AI コンピューティング パフォーマンスを提供し、前世代の 2 倍以上のパフォーマンスを実現します。これらの新しい Tensor コアは、FP8 精度データ型の高速化をサポートし、独立した浮動小数点と整数のデータ パスを提供し、浮動小数点と整数を混合した計算の実行を高速化します。
48GB GPU メモリ
48GB GDDR6 メモリを搭載した RTX 6000 は、データ サイエンティスト、エンジニア、クリエイティブなプロフェッショナル向けに、レンダリング、データ サイエンス、シミュレーションなどの膨大なデータセットやワークロードを使用する作業に必要な大容量メモリを提供します。
仮想化対応
NVIDIA RTX 仮想ワークステーション (vWS) ソフトウェアをサポートすることで、個人のワークステーションを複数のハイパフォーマンスな仮想ワークステーション インスタンスとして使用できるため、リモートのユーザーがリソースを共有して、ハイエンドのデザイン、AI、コンピューティングのワークロードを進めることができます。
PCIe Gen 4
PCI Express Gen 4 対応により、PCIe Gen 3 の 2 倍の帯域幅を提供することで、AI やデータ サイエンスなどのデータ集約型タスク向けに CPU メモリからのデータ転送速度が向上します。
関連製品
NVIDIA RTX™ Ampere世代 搭載可能
NVIDIA RTX™ Ampere

![]() |
![]() 販売終了 |
![]() 販売終了 |
![]() 販売終了 |
![]() 販売終了 |
![]() 販売終了 |
![]() 販売終了 |
![]() |
![]() |
|
---|---|---|---|---|---|---|---|---|---|
GPUメモリ | 40GB HBM2 | 48GB GDDR6 | 24GB GDDR6 | 24GB GDDR6 | 20GB GDDR6 | 16GB GDDR6 | 12GB GDDR6 | 8GB GDDR6 | 4GB GDDR6 |
メモリー帯域幅 | 1,555GB/s | 768GB/s | 768GB/s | 768GB/s | 640GB/s | 448GB/s | 288GB/s | 192GB/s | 96GB/s |
ECC | Yes | Yes | Yes | Yes | Yes | Yes | Yes | – | – |
CUDAコア | 6,912 | 10,752 | 10,240 | 8,192 | 7,168 | 6,144 | 3,328 | 2,304 | 768 |
Tensorコア | 432 | 336 | 320 | 256 | 224 | 192 | 104 | 72 | 24 |
RTコア | N / A | 84 | 80 | 64 | 56 | 48 | 26 | 18 | 6 |
単精度性能(TFLOPS) | 19.5 | 38.7 | 34.1 | 27.8 | 23.7 | 19.2 | 8.0 | 6.7 | 2.7 |
RTコア性能(TFLOPS) | N / A | 75.6 | 66.6 | 54.2 | 46.2 | 37.4 | 15.6 | 13.2 | 5.4 |
Tensor性能(TFLOPS) | 623.8 | 309.7 | 272.8 | 222.2 | 189.2 | 153.4 | 63.9 | 53.8 | 21.7 |
NVLink | Yes | Yes | Yes | Yes | Yes | N / A | N / A | N / A | N / A |
NVLink帯域幅 | 400GB/s | 112.5GB/s (双方向) |
112.5GB/s (双方向) |
112.5GB/s (双方向) |
112.5GB/s (双方向) |
N / A | N / A | N / A | N / A |
システムインターフェイス | PCIe 4.0 x16 | PCIe 4.0 x16 | PCIe 4.0 x16 | PCIe 4.0 x16 | PCIe 4.0 x16 | PCIe 4.0 x16 | PCIe 4.0 x16 | PCIe 4.0 x8 | PCIe 4.0 x8 |
最大消費電力 | 240W | 300W | 230W | 230W | 200W | 140W | 70W | 50W | 50W |
排熱機構 | アクティブ | アクティブ | アクティブ | アクティブ | アクティブ | アクティブ | アクティブ | アクティブ | アクティブ |
フォームファクター | 4.4″ H x 10.5″ L 2スロット |
4.4″ H x 10.5″ L 2スロット フルハイト |
4.4″ H x 10.5″ L 2スロット フルハイト |
4.4″ H x 10.5″ L 2スロット フルハイト |
4.4″ H x 10.5″ L 2スロット フルハイト |
4.4″ H x 9.5″ L 1スロット |
2.7″ H x 6.6″ L 2スロット |
2.7″ H x 6.4″ L 1スロット |
2.7″ H x 6.4″ L 1スロット |
画面出力 | N / A | DisplayPort 1.4a x4 | DisplayPort 1.4a x4 | DisplayPort 1.4a x4 | DisplayPort 1.4a x4 | DisplayPort 1.4a x4 | mDP 1.4a x4 | mDP 1.4a x4 | mDP 1.4a x4 |
電源コネクタ | 16ピン PCIe CEM5 x1 | 8ピン CPU x1 | 8ピン PCIe x1 | 8ピン PCIe x1 | 8ピン PCIe x1 | 6ピン PCIe x1 | N / A | N / A | N / A |
NVIDIA RTX テクノロジ
NVIDIA RTX™ テクノロジは、コンピューターグラフィックスにおけるNVIDIAの最も重要な進歩の1つであり、かつてないスピードで実世界をシミュレートする 新世代アプリケーションをもたらします。AI、レイ トレーシング、シミュレーションにおける最新技術が盛り込まれたRTXテクノロジによって驚異的な3Dデザイン、フォトリアルなシミュレーション、圧倒的なビジュアルエフェクトが、かつてないほど高速で実現します。

中心となるテクノロジ
レイ トレーシング
RTXテクノロジはNVIDIA OptiX™、Microsoft DXR、Vulkanといった、最適化されたレイトレーシングAPIにより、映画品質の映像をリアルタイムでレンダリングするという夢を叶えるものです。極めて正確な影、反射、屈折の描写で、フォトリアルなオブジェクトと環境をリアルタイムでレンダリングできるため、アーティストやデザイナーは驚異的な作品をこれまでにない速さで作り出せるようになりました。
人工知能 (AI)
NVIDIA RTXテクノロジはAIのパワーをビジュアル コンピューティングにもたらします。かつてないワークフローの高速化をエンド ユーザーにもたらすAI強化アプリケーションを開発できます。インテリジェントな画像の編集、繰り返しタスクの自動化、コンピューティング負荷の高いプロセスの最適化により、時間とリソースを節約し、アーティストやデザイナーの創作を劇的に加速します。
ラスタライゼーション
RTXテクノロジには、可変レート シェーディング、テクスチャスペース シェーディング、マルチビュー レンダリングなどのプログラミング可能シェーディングにおける最新技術が盛り込まれています。より豊かなビジュアルの制作と大規模なモデルやシーンとのよりスムーズなインタラクティブ性を実現しVR体験が改善されます
シミュレーション
現実感あふれるビジュアルを生み出すには、外観だけでなく、その挙動も重要です。CUDA® コアのパワーと、NVIDIA PhysX®、Flow、FleX、CUDAなどのAPIによりRTXテクノロジではゲーム、仮想環境、特殊効果といったあらゆるケースで、実世界の物体の挙動を正確にモデリングできます。
関連製品
製品仕様
CPU |
第5世代 インテル Xeon スケーラブル・プロセッサー
x 2
第5世代 インテル Xeon スケーラブル・プロセッサーor 第4世代 インテル Xeon スケーラブル・プロセッサー x 2 第4世代 インテル Xeon スケーラブル・プロセッサー |
---|---|
チップセット | インテル C741 チップセット |
メモリ | DDR5-5600MHz ECC RDIMM / 3DS RDIMM x 16 |
ドライブベイ | 2.5インチ ホットスワップ ( SATA / SAS / NVMe 対応 ) x 2
3.5インチ ホットスワップ ( SATA / SAS / NVMe 対応 ) x 2 3.5インチ ホットスワップ ( SATA / SAS 対応 ) x 2 |
M.2スロット | インターフェイス : PCI-Express 3.0 x4 フォームファクタ : 2260/2280 x 1 |
オプティカルドライブ | USB接続 外付けDVDマルチドライブ オプション |
グラフィックス | オンボード |
GPU | 2スロット GPU 最大 x 4
NVLink ブリッジ オプション |
ネットワークI/F | 1ギガビット イーサネット ( RJ45 ) x 2 |
管理I/F | BMC / IPMI 2.0 |
I/Oポート 前面 | USB3.2 Gen1 x 4 |
I/Oポート 背面 | VGA x 1
USB 3.2 Gen1 x 2 IPMI用 MLAN ( RJ45 ) x 1 |
拡張スロット 前面 | PCI Express 4.0 x8 ( LP,HL ) x 1 |
拡張スロット 背面 | PCI Express 5.0 x16 ( FHFL ) x 4 or PCI Express 5.0 x8 ( FHFL ) x 8
PCI Express 5.0 x16 ( FHHL ) x 2 |
ケース | 2Uラックマウントケース : W 439.5mm x H 88.9 x D 800mm |
電源 | 200V 2600W リダンダント電源 80-plus Titanium 200V専用 |
OS |
|
保守 | 1年間全国出張オンサイトサービス 3年間全国出張オンサイト オプション |
動作推奨環境 | 温度 : 10 ℃ ~ 35 ℃ 湿度 : 20 % ~ 80 % (結露なきこと) |
カタログ
商標について
- Intel、インテル、Intel ロゴ、Intel Inside、Intel Inside ロゴ、Intel Atom、Intel Atom Inside、Intel Core、Core Inside、Intel vPro、vPro Inside、Celeron、Celeron Inside、Itanium、Itanium Inside、Pentium、Pentium Inside、Xeon、Xeon Phi、Xeon Inside、Ultrabook は、アメリカ合衆国および/またはその他の国におけるIntel Corporation の商標です。
- AMD、AMD EPYC™、AMD Ryzen™ 、AMD Radeon™ 、Radeon Instinct™ は、アメリカ合衆国および/またはその他の国におけるAdvanced Micro Devices,Incの商標です。
- NVIDIA、NVIDIA のロゴ、GeForce、 CUDA、 NVLINK、SLI、Tesla、Quadro、および SHIELD は、米国またはその他の国における NVIDIA Corporation の商標または登録商標です
- Supermicroは商標であり、米国のSuper Micro Computer, Inc.およびその他の国における子会社の登録商標です。
- Red Hat、Red Hat Enterprise Linux、Shadowmanロゴ、JBossは米国およびその他の国において登録されたRed Hat, Inc.の商標です。
- Linux(R)は米国およびその他の国におけるLinus Torvaldsの登録商標です。
- SUSEおよびSUSEロゴは、米国およびその他の国におけるSUSE LLCの登録商標です。
- VMwareおよびVMwareの製品名は、VMware, Inc.の米国および各国での商標または登録商標です。
- Microsoft、Windows、MS-DOS、Windows NT、Windows Vista、Windows Server、Windows Azure、SQL Serverおよび Microsoft Exchange Serverまたはその他のマイクロソフト製品の名称および製品名は、米国 Microsoft Corporation の、米国およびその他の国における商標または登録商標です。
- UNIXは、米国およびその他の国におけるオープン・グループの登録商標です。
- その他弊社ウェブサイト(本サイト)に表示・記載されている会社名、製品名およびロゴ等は、各社の登録商標または商標です。