NVIDIA DGX™ H100
AIインフラの金字塔
NVIDIA DGX™ H100はビジネスのイノベーションと最適化を支援します。NVIDIAの伝説的なDGXシステムの最新モデルであり、NVIDIA DGX SuperPOD™の基盤である DGX H100は、画期的なNVIDIA H100 TensorコアGPUを搭載し、AIの活用を推し進めます。AIスループットを最大化するように設計されており、高度に洗練され、システム化された拡張可能なプラットフォームを企業に提供し、自然言語処理、リコメンデーション システム、データ分析などにおいて、飛躍的な進歩を達成できるように支援します。NVIDIA DGX H100は、オンプレミスに導入できるほか、さまざまなアクセスと展開の選択肢があり、企業の大規模な課題を AIで解決するために必要なパフォーマンスを実現します。
製品スペック
NVIDIA DGX™ H100 |
|
GPUs |
8x NVIDIA H100 GPUs |
TFLOPS |
32 Peta FLOPS FP8 |
GPUメモリー |
80GB per GPU/640 GB per DGX H100 Node |
システムメモリー |
2TB |
ストレージ |
Data cache drives: 30TB (8x3.84TB) OS drives: 2x 1.92TB NVME SSDs |
ネットワーク |
4x OSFP ports serving 8x single-port NVIDIA ConnectX-7 400Gb/s InfiniBand/Ethernet 2x dual-port NVIDIA ConnectX-7 VPI 400Gb/s InfiniBand/Ethernet |
NVIDIA DGX H100の詳細資料をご用意しております
NVIDIA DGX H100をネットワーク目線で解説した参考資料、
「ネットワーク視点のNVIDIA DGX™ H100大解剖 ~GPUを最大限活かすNVIDIA ConnectX®-7の役割~」をご用意しております。ぜひご活用ください。
個人情報入力無しで全文をご覧いただけます。
資料内容(一部抜粋)
画像をクリックすると拡大できます。
導入事例
その他のGPUサーバー
Supermicro社GPUサーバーも取り扱っており、詳細をご希望の方はお問い合わせください。
項目 |
NVIDIA HGX H100/H200サーバー |
NVIDIA H100サーバー(拡張性有①) |
NVIDIA H100サーバー(拡張性有②) |
水冷サーバー |
SYS |
SYS-821GE-TNHR |
SYS-741GE-TNRT |
SYS-521GE-TNRT |
SYS-421GE-TNHR2-LCC |
CPU |
Dual Socket E (LGA-4677)5th Gen Intel® Xeon® / 4th Gen Intel® Xeon® Scalable processors |
Dual Socket E (LGA-4677)5th Gen Intel® Xeon® / 4th Gen Intel® Xeon® Scalable processors |
Dual Socket E (LGA-4677)5th Gen Intel® Xeon® / 4th Gen Intel® Xeon® Scalable processors |
Dual Socket E (LGA-4677)5th Gen Intel® Xeon® / 4th Gen Intel® Xeon® Scalable processorsSupports Intel Xeon CPU Max Series with high bandwidth memory (HBM) |
Memory |
Slot Count: 32 DIMM slotsMax Memory (1DPC): Up to 4TB 5600MT/s ECC DDR5 RDIMMMax Memory (2DPC): Up to 8TB 4400MT/s ECC DDR5 RDIMM |
Slot Count: 16 DIMM slotsMax Memory (1DPC): Up to 2TB 5600MT/s ECC DDR5 RDIMMMax Memory (2DPC): Up to 4TB 4400MT/s ECC DDR5 RDIMM |
Slot Count: 32 DIMM slotsMax Memory (1DPC): Up to 4TB 5600MT/s ECC DDR5 RDIMMMax Memory (2DPC): Up to 8TB 4400MT/s ECC DDR5 RDIMM |
Slot Count: 32 DIMM slotsMax Memory (1DPC): 4TB 5600MT/s ECC DDR5 RDIMMMax Memory (2DPC): 8TB 4400MT/s ECC DDR5 RDIMM |
形態 |
8U Rackmount型 |
Tower Rackmount型 |
5U Rackmount型 |
4U Rackmount型 |
GPUモデル |
NVIDIA SXM: HGX H100 8-GPU (80GB), HGX H200 8-GPU (141GB) |
NVIDIA PCIe: H100 NVL, H100, |
NVIDIA PCIe: H100 NVL, H100 |
NVIDIA SXM: HGX H100 8-GPU (80GB), HGX H200 8-GPU (141GB) |
冷却方法 |
空冷 |
空冷 |
空冷 |
水冷 |
Image |
お見積もり / お問い合わせ
AI TRY NOW PROGRAM とは
NVIDIA環境上で最新のAIソリューションを自社への導入前に検証できるサポートプログラムです。
NVIDIA AI Enterprise、NVIDIA OmniverseをはじめとするNVIDIA社提供のソフトウェア製品や弊社が提供可能なAIの学習向け環境・ツールの導入効果やアプリケーションの実現性をご購入前に検証可能です。