- NVIDIA データセンターGPU 搭載製品
- VCXS-W4USS06H1301-G
- ワークステーション製品
- VCXS-W4USS06H1301-G
画像は実際の製品と異なる場合があります。
NVIDIA データセンターGPU 最大4基搭載
VCXS-W4USS06H1301-G
1 基
8 枚
4 基
6 ベイ
2 ベイ
1 枚
タワー
or 4U
シングル
電源
10GbE
主な仕様
- 第5世代 インテル® Xeon® スケーラブル・プロセッサー 1基(Emerald Rapids / LGA4677 )
- DDR5-5600 メモリ 8スロット
- 2スロット PCIe GPU 最大4基 搭載可能
- 3.5 インチ ホットスワップ 6ベイ
- 2.5 インチ ホットスワップ 2ベイ
- 2.5 インチ NVMe 最大2台 搭載可能
- M.2 SSD 最大1枚 搭載可能
- 10 ギガビット イーサネット 2ポート
- タワー・ラックマウント両対応ケース
- シングル電源
スタンダード見積り
スペックと価格のバランスが
良い構成をご用意!
- とりあえず価格を知りたい
- 仕様が決まっていない
- 構成をおまかせしたい
- CPU
- インテル Xeon Silver 4516Y+ x 1
- メモリ
- 32GB x 8 DDR5-5600 ECC RDIMM
- M.2
- 1TB
- SSD
- 無し
- HDD
- 10TB
- 画面出力
- NVIDIA RTX A400 4GB GDDR6
- GPU
- NVIDIA RTX 6000 Ada 48GB GDDR6
- 電源
- 100V 1200W / 200V 1500W シングル電源
- OS
- Ubuntu Desktop LTS
カスタマイズ見積り
パーツ単位で自由な
カスタマイズが可能!
- ご希望の仕様がある
- パーツ毎に自分で選びたい
- こだわりの一台が欲しい
- CPU
- インテル Xeon スケーラブル・プロセッサー x 1
- メモリ
- DDR5-5600 ECC RDIMM x 8
- M.2
- 最大 8TB
- SSD
- 最大 7.68TB
- HDD
- 最大 24TB
- 画面出力
- NVIDIA RTX A400 4GB GDDR6 他
- GPU
- 2スロットGPU 最大 x 4
- 電源
- 100V 1200W / 200V 1500W シングル電源
- OS
- Linuxディストリビューション 他
製品特長
専用タワーケースにIntel® Xeon スケーラブル・プロセッサーを1基、NVIDIA GPUを最大4基搭載するハイパフォーマンスGPGPUモデルです。
本製品は高性能GPUを高密度に搭載することで高いエネルギー効率を発揮し、優れた費用対効果でコスト削減を実現します。
また、オプションパーツを使用することで4Uラックマウントとして運用できます。
第5世代 インテル® Xeon® スケーラブル・プロセッサー 搭載
第5世代 インテル® Xeon® スケーラブル・プロセッサー

「インテル® Xeon® スケーラブル・プロセッサー」は様々な種類のワークロードやパフォーマンスレベルに最適化され、ミッションクリティカルなエンタープライズ向けから、コストパフォーマンスを重視したエントリー向けまでご予算、ご用途に合わせて柔軟な選択が可能なプロセッサーです。
第5世代 Xeon スケーラブル・プロセッサー(Emerald Rapids)は第4世代 Xeon スケーラブル・プロセッサー(Sapphire Rapids)と同じ製造プロセスノード、アーキテクチャを引き続き採用していますが、実装方法を見直すことにより性能や電力効率が向上しています。最大42%のAI性能の向上、一般用途の処理が最大21%の性能向上、電力効率においては36%改善されています。
製造プロセスノードは第4世代と同じIntel 7を利用して製造されていますが、パッケージ内部のアーキテクチャを大きく変更。XCCはCPUコアが32個のダイを2つ搭載し、最大64コアのCPUを1つのパッケージで実現。第4世代 Xeon の最大60コアから最大64コアとなっています。
LLC(L3キャッシュ)はダイ毎に160MB実装されており、パッケージ全体で320MBのLLCが搭載され、第4世代 Xeonと比較して約3倍のLLCが実装されています。また、対応メモリもDDR5-5600に引き上げられています。
CPUソケットは第4世代 Xeonと同様となり、BIOSアップデートで第5世代 Xeonへの対応が可能です。
多彩なCPUラインナップ
インテル Xeon スケーラブル・プロセッサーはプラチナ、ゴールド、シルバー、ブロンズの4つにカテゴライズされ、ミッションクリティカルなエンタープライズ用途からコストパフォーマンスを重視したエントリー向けまで要求されるスペックに応じて数多くのSKUから選択出来ます。
また、様々なアプリケーションや目的に最適化したSKUが用意されています。
- 汎用SKU
- 動画配信/分析/仮想化に最適化されたSKU
- 5G/ネットワーク機器向けSKU
- HCI/ストレージ向けSKU
H | データベースと分析 |
---|---|
M | AI およびメディア処理ワークロードに最適化 |
N | ネットワーク / 5G / エッジ |
P | 高周波 VM 環境でのオーケストレーション効率など、IaaS クラウド環境に最適化 |
Q | 液体冷却ソリューションをサポート |
S | ストレージ & HCI |
T | 長期供給 |
U | 1 ソケット構成 |
V | SaaS クラウド環境に最適化 |
Y | Intel SST (Speed Select Technology) 2.0対応 |
+ | 機能 + プロセッサーに含まれるもの |
第5世代 インテル® Xeon® スケーラブル・プロセッサー 一覧
関連製品
第4世代 インテル® Xeon® スケーラブル・プロセッサー 搭載
第4世代 インテル® Xeon® スケーラブル・プロセッサー

「インテル® Xeon® スケーラブル・プロセッサー」は様々な種類のワークロードやパフォーマンスレベルに最適化され、ミッションクリティカルなエンタープライズ向けから、コストパフォーマンスを重視したエントリー向けまでご予算、ご用途に合わせて柔軟な選択が可能なプロセッサーです。

第4世代 Xeon スケーラブル・プロセッサー(Sapphire Rapids)は汎用用途、ネットワーク5G、ストレージ、AI、HPC、データ分析など、実環境でのワークロード性能向上を最優先として開発されました。前世代よりIPC(クロック当たりの処理命令数)の15%増加を目指し、マイクロアーキテクチャの改良、L2/L3キャッシュの拡大、新しいワークロード・アクセラレーター、データセンターの信頼性を高める機能安全のステップ関数などのアーキテクチャ設計がされています。
メモリは最大4800MT/s 8chのDDR5に対応し、CPU直結のPCI Express 5.0は80レーンを備え、CXL(Compute Express Link) 1.1準拠機器も1CPU当たり4つのCXLデバイスをサポートします。
最大の特徴は「タイル設計(チップレット技術)」を採用し、一つのプロセッサーに搭載するチップの枚数や種類を柔軟に変えられることにあり、3種類のタイル構造が採用されています。
MCC | XCC | Max | |
---|---|---|---|
用途 | CPUコアの動作クロックと低レイテンシーを重視 | CPUのコア数を重視 | 最大限の帯域幅を重視 |
ダイ構成 | 1モノリシック・チップ | 4タイルをMDFを使用してインテルのエンベデッド・アルチダイ・インターコネクト・ブリッジ(EMIB)上で接続 | |
コア数 | 最大32 | 最大60 | 最大56 |
TDP範囲 | 125~350W | 225~350W | 350W |
メモリ | DDR5-4800 8チャネル | DDR5-4800 8チャネル 64GB HBM2e |
|
インテル UPI | UPI 2.0 @16GT/s 最大4ウルトラ・パス・インターコネクト |
UPI 2.0 @16GT/s 最大3ウルトラ・パス・インターコネクト |
UPI 2.0 @16GT/s 最大4ウルトラ・パス・インターコネクト |
拡張性 | 1,2,4,8 | 1,2,4 | 1,2 |
PCIe | PCIe 5.0(80レーン) Compute Express Link(CXL)1.1経由で最大4デバイス接続をサポート |
||
セキュリティ | インテル SGX エンクレープ・ページ・キャッシュ(EPC)の最小サイズ 256MB |
インテル SGX(フラットモードのみ) | |
統合型 IP アクセラーレーター |
インテル QAT,インテル DLB、インテル IAA、インテル DSA (各ソリューション最大4デバイス) |
インテル QAT,インテル DLB (各ソリューション最大2デバイス) インテル IAA、インテル DSA (各ソリューション最大1デバイス) |
インテル DSA(4デバイス) |
多彩なCPUラインナップ
インテル Xeon スケーラブル・プロセッサーはプラチナ、ゴールド、シルバー、ブロンズの4つと、CPUに最大64GB(16GBx4)のHBM2e(High Bandwidth Memory)メモリを搭載した「Xeon CPU Max」シリーズにカテゴライズされ、ミッションクリティカルなエンタープライズ用途からコストパフォーマンスを重視したエントリー向けまで要求されるスペックに応じて数多くのSKUから選択出来ます。
また、様々なアプリケーションや目的に最適化したSKUが用意されています。
- 汎用SKU
- 動画配信/分析/仮想化に最適化されたSKU
- 5G/ネットワーク機器向けSKU
- HCI/ストレージ向けSKU
- Xeon CPU Maxシリーズ
H | データベースと分析 |
---|---|
M | AI およびメディア処理ワークロードに最適化 |
N | ネットワーク / 5G / エッジ |
P | 高周波 VM 環境でのオーケストレーション効率など、IaaS クラウド環境に最適化 |
Q | 液体冷却ソリューションをサポート |
S | ストレージ & HCI |
T | 長期供給 |
U | 1 ソケット構成 |
V | SaaS クラウド環境に最適化 |
Y | Intel SST (Speed Select Technology) 2.0対応 |
+ | 機能 + プロセッサーに含まれるもの |
第4世代 インテル® Xeon® スケーラブル・プロセッサー 一覧
関連製品
NVIDIA データセンターGPU Ada Lovelace世代 搭載可能
NVIDIA Ada Lovelace

![]() |
![]() 販売終了 |
![]() |
|
---|---|---|---|
GPUメモリ | 48GB GDDR6 ECC付き | 48GB GDDR6 ECC付き | 24GB GDDR6 ECC付き |
メモリー帯域幅 | 864GB/s | 864GB/s | 300GB/s |
インターコネクト インタフェース | PCIe Gen4x16: 64GB/s 双方向 | PCIe Gen4x16: 64GB/s 双方向 | PCIe Gen4x16: 64GB/s |
CUDA コア数 | 18,176 | 18,176 | 7,424 |
NVIDIA 第3世代 RT コア | 142 | 142 | 58 |
NVIDIA 第4世代 Tensor コア | 568 | 568 | 232 |
RT コア 性能 TFLOPS | 212 | 209 | – |
FP32 TFLOPS | 91.6 | 90.5 | 30.3 |
TF32 Tensor コア TFLOPS | 183 | 366 | 90.5 | 181 | 120 |
BFLOAT16 Tensor コア TFLOPS | 362.05 | 733 | 181.05 | 362.1 | 242 |
FP16 Tensor コア | 362.05 | 733 | 181.05 | 362.1 | 242 |
FP8 Tensor コア | 733 | 1466 | 362 | 724 | 485 |
ピーク INT8 Tensor TOPS | 733 | 1466 | 362 | 724 | 485 |
ピーク INT4 Tensor TOPS | 733 | 1466 | 724 | 1448 | – |
最大消費電力 | 350W | 300W | 72W |
フォームファクター | 4.4” (H) x 10.5” (L) 2スロット |
4.4” (H) x 10.5” (L) 2スロット |
ロープロファイル 1スロット |
排熱機構 | パッシブ(冷却ファンなし) | パッシブ(冷却ファンなし) | パッシブ(冷却ファンなし) |
ディスプレイポート | 4 x DisplayPort 1.4a | 4 x DisplayPort 1.4a | N/A |
マルチインスタンスGPU | N/A | N/A | N/A |
NVLink | N/A | N/A | N/A |
NVIDIA Ada Lovelace アーキテクチャ

Ada GPU アーキテクチャは、レイ トレーシングと AI ベースのニューラル グラフィックスに革新的な性能を実現できるように設計されています。GPU 性能のベースラインが劇的に上がり、レイ トレーシングとニューラル グラフィックスの転換点となります。
CUDA® コア
Transformer Engine
単精度浮動小数点 (FP32) スループットの高速化と電力効率の向上により、3D モデル開発や CAE シミュレーションなどのワークフローでパフォーマンスが大幅に向上します。混合精度ワークロード向けの拡張 16 ビット数学機能 (BF16) をサポート。
第 3 世代 RT コア
スループットとコンカレント レイ トレーシングとシェーディング機能が強化され、レイ トレーシングのパフォーマンスが向上し、製品の設計/アーキテクチャ、エンジニアリング、建設のワークフローのレンダリングが高速化します。ハードウェアでモーション ブラーを高速化し、驚異的なリアルタイム アニメーションを実現する実物のようなデザインをご覧ください。
第 4 世代 Tensor コア
構造的なスパース性と最適化された TF32 形式のハードウェア サポートにより、すぐにパフォーマンスが向上し、AI とデータ サイエンス のモデル トレーニングが高速化します。DLSS を含む AI により強化されたグラフィックス機能を加速させ、選ばれたアプリケーションで優れたパフォーマンスで高解像度を実現します。
48GB の GPU メモリ
48GB の超高速 GDDR6 メモリで、データ サイエンス、シミュレーション、3D モデリング、レンダリングなどの、メモリ負荷の高いアプリケーションやワークロードに対応します。vGPU ソフトウェアを使用して複数のユーザーにメモリを割り当て、クリエイティブ チーム、データ サイエンス チーム、デザイン チーム間で大規模なワークロードを分散します。
仮想化対応
NVIDIA 仮想 GPU (vGPU) ソフトウェア を活用した次世代の改善により、リモート ユーザーがより大規模かつパワフルな仮想ワークステーションのインスタンスを使用できるようになり、高度なデザイン、AI、計算処理におけるより大規模なワークフローが可能になります。
PCI Express Gen 4
PCI Express Gen 4 対応により、PCIe Gen 3 の 2 倍の帯域幅を提供することで、AI やデータサイエンスなどのデータ集約型タスク向けに CPU メモリからのデータ転送速度が向上します。
データ センターの効率性とセキュリティ
NVIDIA L40 は、24 時間 365 日稼動のエンタープライズ データ センター運用に最適化されており、最大限のパフォーマンス、耐久性、アップタイムを確保するために、NVIDIA によって設計、構築、広範囲にテスト、サポートされています。受動冷却、フルハイト フルレングス (FHFL)、デュアルスロット デザイン、最大 300W のボード電力などの特徴を備え、主要な OEM ベンダーのさまざまな筐体構成に収まります。最新のデータ センター標準を満たし、NEBS レベル 3 に対応し、Root of Trust 技術によるセキュア ブートを備え、データ センターにさらなるセキュリティ層を提供します。
関連製品
NVIDIA データセンターGPU Ampere世代 搭載可能
NVIDIA Ampereの詳細NVIDIA Ampere

![]() 販売終了 |
![]() 販売終了 |
![]() 販売終了 |
![]() |
![]() |
![]() |
|
---|---|---|---|---|---|---|
GPUメモリ | 80GB HBM2e | 48GB GDDR6 | 24GB HBM2 | 4x 16GB GDDR6 | 24GB GDDR6 | 16GB GDDR6 |
メモリー帯域幅 | 1,935GB/s | 696GB/s | 933GB/s | 200GB/s | 600GB/s | 200GB/s |
最大消費電力 | 300W | 300W | 165W | 250W | 150W | 40W-60W(初期設定60W) |
マルチインスタンスGPU | 最大7GPU | N/A | 4GPU 6GB 2GPU 12GB 1GPU 24GB |
N/A | N/A | N/A |
フォームファクター | PCIe 2スロット |
2スロット FHFL |
2スロット FHFL |
2スロット FHFL |
1スロット FHFL |
1スロット LP |
NVLink | NVIDIA NVLink 600 GB/s
PCIe Gen4 64 GB/s |
2 ウェイ ロー プロファイル (2 スロット) |
NVIDIA NVLink 200 GB/s
PCIe Gen4 64 GB/s |
N/A | N/A | N/A |
排熱機構 | パッシブ(冷却ファンなし) | パッシブ(冷却ファンなし) | パッシブ(冷却ファンなし) | パッシブ(冷却ファンなし) | パッシブ(冷却ファンなし) | パッシブ(冷却ファンなし) |
FP64(TFLOPS) | 9.7 | 0.58464 | 5.2 | 4x 0.00702 | – | 0.11702 |
FP64 Tensorコア(TFLOPS) | 19.5 | – | 10.3 | – | – | – |
Tensor Float 32(TFLOPS) | 156 / 312 | 74.8 / 149.6 | 82 / 165 | 4×9 / 4x 18 | 62.5 / 125 | 9 / 18 |
BFLOAT16 Tensorコア(TFLOPS) | 312 / 624 | 149.7 / 299.4 | 165 / 330 | 4x 17.9 / 4x 35.9 | 125 / 250 | 18 / 36 |
FP16 Tensorコア(TFLOPS) | 312 / 624 | 149.7 / 299.4 | 165 / 330 | 4x 17.9 / 4x 35.9 | 125 / 250 | 18 / 36 |
INT8 Tensorコア(TOPS) | 624 / 1248 | 299.3 / 598.6 | 330 / 661 | 4×35.9 / 4x 71.8 | 250 / 500 | 36 / 72 |
実アプリ性能 | 90% | – | – | – | – | – |
NVIDIA Ampere アーキテクチャ
NVIDIA A100 Tensorコア GPUはあらゆる規模で前例のない高速化を実現し、世界最高のパフォーマンスを誇るエラスティック データ センターにAI、データ分析、HPCのためのパワーを与えます。NVIDIA Ampereアーキテクチャで設計されたNVIDIA A100は、NVIDIA データ センター プラットフォームのエンジンです。A100は、前世代と比較して最大20倍のパフォーマンスを発揮し、7つのGPUインスタンスに分割して、変化する需要に合わせて動的に調整できます。40GBと80GB のメモリ バージョンで利用可能なA100 80GBは、毎秒2テラバイト (TB/秒)超えの世界最速メモリ帯域幅を実現し、最大級のモデルやデータセットを解決します。

NVIDIA Ampere アーキテクチャのイノベーション
第3世代 Tensorコア
NVIDIA Volta™ アーキテクチャで最初に導入されたNVIDIA Tensorコア テクノロジは、AIに劇的な高速化をもたらしました。トレーニング時間を数週間から数時間に短縮し、推論を大幅に加速します。NVIDIA Ampereアーキテクチャはこのイノベーションを基盤としており、新しい精度である Tensor Float 32 (TF32) と64ビット浮動小数点 (FP64) を導入することで、AI の導入を加速して簡素化し、Tensor コアのパワーを HPC にもたらします。
TF32はFP32と同じように動作しますが、コードを変更しなくても、AIを最大20倍スピードアップします。 NVIDIA Automatic Mixed Precisionを使用すると、研究者はわずか数行のコードを追加するだけで、自動混合精度とFP16でさらに2倍のパフォーマンスを得られます。また、bfloat16、INT8、INT4に対応しているので、NVIDIA Ampere アーキテクチャのTensorコア GPUのTensorコアは、AIのトレーニングと推論の両方に対する、非常に汎用性の高いアクセラレータです。また、TensorコアのパワーをHPCにもたらすA100およびA30 GPUでは、完全なIEEE準拠のFP64精度での行列演算を実行できます。
Multi-Instance GPU (MIG)
あらゆるAIとHPC アプリケーションがアクセラレーションの恩恵を受けることができますが、すべてのアプリケーションがGPUのフル パフォーマンスを必要とするわけではありません。Multi-Instance GPU (MIG) は、 A100とA30 GPU PU でサポートされている機能であり、ワークロードがGPUを共有することを可能にします。MIGを利用すると、各GPUを複数のGPUインスタンスに分割できます。各インスタンスは完全に分離され、ハードウェア レベルで保護され、専用の高帯域幅メモリ、キャッシュ、コンピューティング コアを与えられます。これにより開発者は、大小を問わずあらゆるアプリケーションに対して画期的な高速化を利用できるようになり、サービス品質も保証されます。また、IT管理者は、適切なサイズのGPUアクセラレーションを提供することで利用率を最適化し、ベアメタル環境と仮想化環境の両方ですべてのユーザーとアプリケーションにアクセスを拡張できます。
第3世代の NVLink
アプリケーションをマルチGPUでスケールさせるには、非常に高速にデータを移動させる必要があります。NVIDIA Ampere アーキテクチャの第3世代 NVIDIA® NVLink® は、GPU 間の直接帯域幅を2倍の毎秒600ギガバイト (GB/s) にします。これは、PCIe Gen4の約10倍です。最新世代の NVIDIA NVSwitch™と組み合わせることで、サーバー内のすべてのGPUが完全なNVLinkの速度で相互に通信し、驚くほど高速なデータ転送が可能になります。 NVIDIA DGX™A100と他の主要なコンピューター メーカーのサーバーは、 NVIDIA HGX™ A100ベースボードを介してNVLinkとNVSwitchのテクノロジを活用し、HPCおよびAIのワークロードに優れたスケーラビリティを提供します。
スパース構造
現代のAIネットワークは大きく、数百万、場合によっては数十億のパラメーターを持ち、ますますその規模は拡大しています。これらのパラメーターのすべてが正確な予測や推論に必要なわけではなく、一部のパラメーターをゼロに変換することで、精度を下げることなくモデルを「スパース」にできます。Tensorコアでは、スパースなモデルのパフォーマンスを最大2倍にできます。スパース機能はAI推論で特に効果を発揮しますが、モデルトレーニングのパフォーマンス向上にも利用できます。
第2世代 RTコア
NVIDIA A40のNVIDIA Ampereアーキテクチャの第2世代RTコアは、映画コンテンツのフォトリアルなレンダリング、建築デザインの評価、製品デザインのバーチャル試作品などのワークロードを大幅にスピードアップします。RTコアはまた、レイ トレーシングされたモーション ブラーのレンダリングをスピードアップし、短時間で結果が得られ、ビジュアルの精度が上がります。さらに、レイ トレーシングをシェーディング機能またはノイズ除去機能と共に同時に実行できます。
よりスマートで高速なメモリ
A100は、データセンターでの膨大な量のコンピューティングを可能にします。コンピューティング エンジンを常に完全に活用するために、A100はこのクラスで最大となる毎秒2テラバイト (TB/s) のメモリ帯域幅を備えています。前世代の2倍以上です。さらに、A100は前世代の7倍となる40メガバイト (MB) のレベル2キャッシュを含む、より大きなオンチップ メモリを搭載しており、コンピューティング パフォーマンスを最大限まで引き上げます。
関連製品
製品仕様
CPU |
第5世代 インテル Xeon スケーラブル・プロセッサー
x 1
第5世代 インテル Xeon スケーラブル・プロセッサーor 第4世代 インテル Xeon スケーラブル・プロセッサー x 1 第4世代 インテル Xeon スケーラブル・プロセッサー |
---|---|
チップセット | インテル C741 チップセット |
メモリ | DDR5-5600MHz ECC RDIMM / 3DS RDIMM x 8 |
ドライブベイ | 2.5インチ ホットスワップ ( SATA / NVMe 対応 ) x 2
3.5インチ ホットスワップ ( SATA / SAS 対応 ) x 6 |
M.2スロット | インターフェイス : PCI-Express 3.0 ( NVMe 対応 ) フォームファクタ : 2280 x 1 |
オプティカルドライブ | USB接続 外付けDVDマルチドライブ オプション |
グラフィックス | オンボード |
GPU | 2スロット GPU 最大 x 4 |
ネットワークI/F | 10ギガビット イーサネット ( RJ45 ) x 2 + 1ギガビット イーサネット ( RJ45 ) x 1
or 1ギガビット イーサネット ( RJ45 ) x 1 |
管理I/F | BMC / IPMI 2.0 |
I/Oポート 前面 | USB3.2 Gen1 x 2 |
I/Oポート 背面 | シリアルポート x 1
VGA x 1 USB3.2 Gen1 x 2 USB2.0 x 2 IPMI用 MLAN ( RJ45 ) x 1 |
拡張スロット | PCI Express 5.0 x16 ( FHFL ) x 4
PCI Express 5.0 x8 ( FHFL ) x 1 |
ケース | 専用タワーケース : W 176mm x H 438mm x D 650mm 4Uラックマウント時 : W 438mm x H 176mm x D 650mm オプション |
電源 | 100V 1200W / 200V 1500W シングル電源 |
OS |
|
保守 | 1年間全国出張オンサイトサービス 3年間全国出張オンサイト オプション |
動作推奨環境 | 温度 : 10 ℃ ~ 35 ℃ 湿度 : 20 % ~ 80 % (結露なきこと) |
カタログ
商標について
- Intel、インテル、Intel ロゴ、Intel Inside、Intel Inside ロゴ、Intel Atom、Intel Atom Inside、Intel Core、Core Inside、Intel vPro、vPro Inside、Celeron、Celeron Inside、Itanium、Itanium Inside、Pentium、Pentium Inside、Xeon、Xeon Phi、Xeon Inside、Ultrabook は、アメリカ合衆国および/またはその他の国におけるIntel Corporation の商標です。
- AMD、AMD EPYC™、AMD Ryzen™ 、AMD Radeon™ 、Radeon Instinct™ は、アメリカ合衆国および/またはその他の国におけるAdvanced Micro Devices,Incの商標です。
- NVIDIA、NVIDIA のロゴ、GeForce、 CUDA、 NVLINK、SLI、Tesla、Quadro、および SHIELD は、米国またはその他の国における NVIDIA Corporation の商標または登録商標です
- Supermicroは商標であり、米国のSuper Micro Computer, Inc.およびその他の国における子会社の登録商標です。
- Red Hat、Red Hat Enterprise Linux、Shadowmanロゴ、JBossは米国およびその他の国において登録されたRed Hat, Inc.の商標です。
- Linux(R)は米国およびその他の国におけるLinus Torvaldsの登録商標です。
- SUSEおよびSUSEロゴは、米国およびその他の国におけるSUSE LLCの登録商標です。
- VMwareおよびVMwareの製品名は、VMware, Inc.の米国および各国での商標または登録商標です。
- Microsoft、Windows、MS-DOS、Windows NT、Windows Vista、Windows Server、Windows Azure、SQL Serverおよび Microsoft Exchange Serverまたはその他のマイクロソフト製品の名称および製品名は、米国 Microsoft Corporation の、米国およびその他の国における商標または登録商標です。
- UNIXは、米国およびその他の国におけるオープン・グループの登録商標です。
- その他弊社ウェブサイト(本サイト)に表示・記載されている会社名、製品名およびロゴ等は、各社の登録商標または商標です。