NVIDIA DGX Systems

NVIDIA DGX™ H100

AIインフラの金字塔

NVIDIA DGX™ H100

NVIDIA DGX™ H100はビジネスのイノベーションと最適化を支援します。NVIDIAの伝説的なDGXシステムの最新モデルであり、NVIDIA DGX SuperPOD™の基盤である DGX H100は、画期的なNVIDIA H100 TensorコアGPUを搭載し、AIの活用を推し進めます。AIスループットを最大化するように設計されており、高度に洗練され、システム化された拡張可能なプラットフォームを企業に提供し、自然言語処理、リコメンデーション システム、データ分析などにおいて、飛躍的な進歩を達成できるように支援します。NVIDIA DGX H100は、オンプレミスに導入できるほか、さまざまなアクセスと展開の選択肢があり、企業の大規模な課題を AIで解決するために必要なパフォーマンスを実現します。

製品スペック

NVIDIA DGX™ H100

GPUs

8x NVIDIA H100 GPUs

TFLOPS

32 Peta FLOPS FP8

GPUメモリー

80GB per GPU/640 GB per

DGX H100 Node

システムメモリー

2TB

ストレージ

Data cache drives: 30TB

(8x3.84TB)

OS drives: 2x 1.92TB NVME SSDs

ネットワーク

4x OSFP ports serving 8x single-port

NVIDIA ConnectX-7

400Gb/s InfiniBand/Ethernet

2x dual-port NVIDIA ConnectX-7 VPI

400Gb/s InfiniBand/Ethernet

NVIDIA DGX H100の詳細資料をご用意しております

NVIDIA DGX H100をネットワーク目線で解説した参考資料、

「ネットワーク視点のNVIDIA DGX™ H100大解剖 ~GPUを最大限活かすNVIDIA ConnectX®-7の役割~」をご用意しております。ぜひご活用ください。

個人情報入力無しで全文をご覧いただけます。

資料内容(一部抜粋)

画像をクリックすると拡大できます。

目次
NVIDIA DGX H100概要ページ

導入事例

その他のGPUサーバー

Supermicro社GPUサーバーも取り扱っており、詳細をご希望の方はお問い合わせください。

項目

NVIDIA HGX H100/H200サーバー

NVIDIA H100サーバー(拡張性有①)

NVIDIA H100サーバー(拡張性有②)

水冷サーバー

SYS

SYS-821GE-TNHR

SYS-741GE-TNRT

SYS-521GE-TNRT

SYS-421GE-TNHR2-LCC

CPU

Dual Socket E (LGA-4677)5th Gen Intel® Xeon® / 4th Gen Intel® Xeon® Scalable processors

Dual Socket E (LGA-4677)5th Gen Intel® Xeon® / 4th Gen Intel® Xeon® Scalable processors

Dual Socket E (LGA-4677)5th Gen Intel® Xeon® / 4th Gen Intel® Xeon® Scalable processors

Dual Socket E (LGA-4677)5th Gen Intel® Xeon® / 4th Gen Intel® Xeon® Scalable processorsSupports Intel Xeon CPU Max Series with high bandwidth memory (HBM)​

Memory

Slot Count: 32 DIMM slotsMax Memory (1DPC): Up to 4TB 5600MT/s ECC DDR5 RDIMMMax Memory (2DPC): Up to 8TB 4400MT/s ECC DDR5 RDIMM

Slot Count: 16 DIMM slotsMax Memory (1DPC): Up to 2TB 5600MT/s ECC DDR5 RDIMMMax Memory (2DPC): Up to 4TB 4400MT/s ECC DDR5 RDIMM

Slot Count: 32 DIMM slotsMax Memory (1DPC): Up to 4TB 5600MT/s ECC DDR5 RDIMMMax Memory (2DPC): Up to 8TB 4400MT/s ECC DDR5 RDIMM

Slot Count: 32 DIMM slotsMax Memory (1DPC): 4TB 5600MT/s ECC DDR5 RDIMMMax Memory (2DPC): 8TB 4400MT/s ECC DDR5 RDIMM

形態

8U Rackmount型

Tower Rackmount型

5U Rackmount型

4U Rackmount型

GPUモデル

NVIDIA SXM: HGX H100 8-GPU (80GB), HGX H200 8-GPU (141GB)

NVIDIA PCIe: H100 NVL, H100,

NVIDIA PCIe: H100 NVL, H100

NVIDIA SXM: HGX H100 8-GPU (80GB), HGX H200 8-GPU (141GB)

冷却方法

空冷

空冷

空冷

水冷

Image

お見積もり / お問い合わせ

AI TRY NOW PROGRAM とは​

NVIDIA環境上で最新のAIソリューションを自社への導入前に検証できるサポートプログラムです。​

NVIDIA AI Enterprise、NVIDIA OmniverseをはじめとするNVIDIA社提供のソフトウェア製品や弊社が提供可能なAIの学習向け環境・ツールの導入効果やアプリケーションの実現性をご購入前に検証可能です。

関連製品ページ