サイト内検索

NVIDIA DGX Systems

AIインフラの金字塔

NVIDIA DGX™ B300

NVIDIA DGX™ B300

NVIDIA DGX™ B300はビジネスのイノベーションと最適化を支援します。NVIDIAの伝説的なDGXシステムの最新モデルであり、NVIDIA DGX SuperPOD™の基盤である DGX B300は、画期的なNVIDIA B300 TensorコアGPUを搭載し、AIの活用を推し進めます。AIスループットを最大化するように設計されており、高度に洗練され、システム化された拡張可能なプラットフォームを企業に提供し、自然言語処理、リコメンデーション システム、データ分析などにおいて、飛躍的な進歩を達成できるように支援します。NVIDIA DGX B300は、オンプレミスに導入できるほか、さまざまなアクセスと展開の選択肢があり、企業の大規模な課題を AIで解決するために必要なパフォーマンスを実現します。

NVIDIA DGX™ B200

NVIDIA DGX™ B200

NVIDIA DGX™ B200 は、企業のAIイノベーションを加速し、競争力を強化するために設計された最新世代のAIプラットフォームです。NVIDIAの革新的なBlackwellアーキテクチャを採用したDGX B200は、NVIDIA DGX SuperPOD™ のコアコンポーネントとして、大規模な生成AIやディープラーニングのワークロードに最適化されています。比類ないAI演算性能を提供し、自然言語処理、画像認識、レコメンデーションなどの先進的なユースケースにおいて、企業がかつてない成果を上げることを可能にします。NVIDIA DGX B200はオンプレミスでの導入に適しており、高密度かつ効率的な設計により、AIプロジェクトを迅速にスケールアウトし、組織が直面する複雑な課題をAIの力で解決へと導きます。

NVIDIA DGX™ H200

NVIDIA DGX™ H200はビジネスのイノベーションと最適化を支援します。NVIDIAの伝説的なDGXシステムの最新モデルであり、NVIDIA DGX SuperPOD™の基盤である DGX H200は、画期的なNVIDIA H200 TensorコアGPUを搭載し、AIの活用を推し進めます。AIスループットを最大化するように設計されており、高度に洗練され、システム化された拡張可能なプラットフォームを企業に提供し、自然言語処理、リコメンデーション システム、データ分析などにおいて、飛躍的な進歩を達成できるように支援します。NVIDIA DGX H200は、オンプレミスに導入できるほか、さまざまなアクセスと展開の選択肢があり、企業の大規模な課題を AIで解決するために必要なパフォーマンスを実現します。

製品スペック

NVIDIA DGX™ B300

NVIDIA DGX™ B200

NVIDIA DGX™ H200

GPUs

8x NVIDIA Blackwell Ultra GPUs

8x NVIDIA Blackwell GPUs

8x NVIDIA H200 Tensor Core GPUs

TFLOPS

144 PFLOPS FP4 inference
72 PFLOPS FP8 training

72 petaFLOPS FP8 training and 144 petaFLOPS FP4 inference

32 petaFLOPS FP8

GPUメモリー

2.3TB

1,440GB

1,128GB

ストレージ

Storage OS: 2x 1.9TB NVMe M.2
Internal storage: 8x 3.84TB NVMe E1.S

OS: 2x 1.9TB NVMe M.2
Internal storage: 8x 3.84TB NVMe U.2

OS: 2x 1.92TB NVMe M.2

ネットワーク

8x OSFP ports serving 8x NVIDIA ConnectX-8 VPI
>Up to 800Gb/s NVIDIA InfiniBand/Ethernet
2x dual-port QSFP112 NVIDIA BlueField-3 DPU
>Up to 400Gb/s NVIDIA InfiniBand/Ethernet

4x OSFP ports serving 8x single-port NVIDIA ConnectX-7 VPI
>Up to 400Gb/s NVIDIA InfiniBand/Ethernet
2x dual-port QSFP112 NVIDIA BlueField-3 DPU
>Up to 400Gb/s InfiniBand/Ethernet

4x OSFP ports serving 8x single-port NVIDIA
ConnectX-7 VPI
> Up to 400Gb/s InfiniBand/Ethernet
2x dual-port QSFP112 NVIDIA ConnectX-7 VPI
> Up to 400Gb/s InfiniBand/Ethernet

導入事例

その他のGPUサーバー

Supermicro社GPUサーバーも取り扱っており、詳細をご希望の方はお問い合わせください。

項目

NVIDIA HGX H100/H200サーバー

NVIDIA H100サーバー(拡張性有①)

NVIDIA H100サーバー(拡張性有②)

水冷サーバー

SYS

SYS-821GE-TNHR

SYS-741GE-TNRT

SYS-521GE-TNRT

SYS-421GE-TNHR2-LCC

CPU

Dual Socket E (LGA-4677)5th Gen Intel® Xeon® / 4th Gen Intel® Xeon® Scalable processors

Dual Socket E (LGA-4677)5th Gen Intel® Xeon® / 4th Gen Intel® Xeon® Scalable processors

Dual Socket E (LGA-4677)5th Gen Intel® Xeon® / 4th Gen Intel® Xeon® Scalable processors

Dual Socket E (LGA-4677)5th Gen Intel® Xeon® / 4th Gen Intel® Xeon® Scalable processorsSupports Intel Xeon CPU Max Series with high bandwidth memory (HBM)​

Memory

Slot Count: 32 DIMM slotsMax Memory (1DPC): Up to 4TB 5600MT/s ECC DDR5 RDIMMMax Memory (2DPC): Up to 8TB 4400MT/s ECC DDR5 RDIMM

Slot Count: 16 DIMM slotsMax Memory (1DPC): Up to 2TB 5600MT/s ECC DDR5 RDIMMMax Memory (2DPC): Up to 4TB 4400MT/s ECC DDR5 RDIMM

Slot Count: 32 DIMM slotsMax Memory (1DPC): Up to 4TB 5600MT/s ECC DDR5 RDIMMMax Memory (2DPC): Up to 8TB 4400MT/s ECC DDR5 RDIMM

Slot Count: 32 DIMM slotsMax Memory (1DPC): 4TB 5600MT/s ECC DDR5 RDIMMMax Memory (2DPC): 8TB 4400MT/s ECC DDR5 RDIMM

形態

8U Rackmount型

Tower Rackmount型

5U Rackmount型

4U Rackmount型

GPUモデル

NVIDIA SXM: HGX H100 8-GPU (80GB), HGX H200 8-GPU (141GB)

NVIDIA PCIe: H100 NVL, H100,

NVIDIA PCIe: H100 NVL, H100

NVIDIA SXM: HGX H100 8-GPU (80GB), HGX H200 8-GPU (141GB)

冷却方法

空冷

空冷

空冷

水冷

Image

お見積もり / お問い合わせ

AI TRY NOW PROGRAM とは​

NVIDIA環境上で最新のAIソリューションを自社への導入前に検証できるサポートプログラムです。​

NVIDIA AI Enterprise、NVIDIA OmniverseをはじめとするNVIDIA社提供のソフトウェア製品や弊社が提供可能なAIの学習向け環境・ツールの導入効果やアプリケーションの実現性をご購入前に検証可能です。

関連製品ページ