
AIインフラの金字塔
NVIDIA DGX™ B300

NVIDIA DGX™ B300はビジネスのイノベーションと最適化を支援します。NVIDIAの伝説的なDGXシステムの最新モデルであり、NVIDIA DGX SuperPOD™の基盤である DGX B300は、画期的なNVIDIA B300 TensorコアGPUを搭載し、AIの活用を推し進めます。AIスループットを最大化するように設計されており、高度に洗練され、システム化された拡張可能なプラットフォームを企業に提供し、自然言語処理、リコメンデーション システム、データ分析などにおいて、飛躍的な進歩を達成できるように支援します。NVIDIA DGX B300は、オンプレミスに導入できるほか、さまざまなアクセスと展開の選択肢があり、企業の大規模な課題を AIで解決するために必要なパフォーマンスを実現します。
NVIDIA DGX™ B200

NVIDIA DGX™ B200 は、企業のAIイノベーションを加速し、競争力を強化するために設計された最新世代のAIプラットフォームです。NVIDIAの革新的なBlackwellアーキテクチャを採用したDGX B200は、NVIDIA DGX SuperPOD™ のコアコンポーネントとして、大規模な生成AIやディープラーニングのワークロードに最適化されています。比類ないAI演算性能を提供し、自然言語処理、画像認識、レコメンデーションなどの先進的なユースケースにおいて、企業がかつてない成果を上げることを可能にします。NVIDIA DGX B200はオンプレミスでの導入に適しており、高密度かつ効率的な設計により、AIプロジェクトを迅速にスケールアウトし、組織が直面する複雑な課題をAIの力で解決へと導きます。
NVIDIA DGX™ H200

NVIDIA DGX™ H200はビジネスのイノベーションと最適化を支援します。NVIDIAの伝説的なDGXシステムの最新モデルであり、NVIDIA DGX SuperPOD™の基盤である DGX H200は、画期的なNVIDIA H200 TensorコアGPUを搭載し、AIの活用を推し進めます。AIスループットを最大化するように設計されており、高度に洗練され、システム化された拡張可能なプラットフォームを企業に提供し、自然言語処理、リコメンデーション システム、データ分析などにおいて、飛躍的な進歩を達成できるように支援します。NVIDIA DGX H200は、オンプレミスに導入できるほか、さまざまなアクセスと展開の選択肢があり、企業の大規模な課題を AIで解決するために必要なパフォーマンスを実現します。
製品スペック
NVIDIA DGX™ B300 |
NVIDIA DGX™ B200 |
NVIDIA DGX™ H200 |
|
GPUs |
8x NVIDIA Blackwell Ultra GPUs |
8x NVIDIA Blackwell GPUs |
8x NVIDIA H200 Tensor Core GPUs |
TFLOPS |
144 PFLOPS FP4 inference |
72 petaFLOPS FP8 training and 144 petaFLOPS FP4 inference |
32 petaFLOPS FP8 |
GPUメモリー |
2.3TB |
1,440GB |
1,128GB |
ストレージ |
Storage OS: 2x 1.9TB NVMe M.2 |
OS: 2x 1.9TB NVMe M.2 |
OS: 2x 1.92TB NVMe M.2 |
ネットワーク |
8x OSFP ports serving 8x NVIDIA ConnectX-8 VPI |
4x OSFP ports serving 8x single-port NVIDIA ConnectX-7 VPI |
4x OSFP ports serving 8x single-port NVIDIA |
導入事例
その他のGPUサーバー
Supermicro社GPUサーバーも取り扱っており、詳細をご希望の方はお問い合わせください。
項目 |
NVIDIA HGX H100/H200サーバー |
NVIDIA H100サーバー(拡張性有①) |
NVIDIA H100サーバー(拡張性有②) |
水冷サーバー |
SYS |
SYS-821GE-TNHR |
SYS-741GE-TNRT |
SYS-521GE-TNRT |
SYS-421GE-TNHR2-LCC |
CPU |
Dual Socket E (LGA-4677)5th Gen Intel® Xeon® / 4th Gen Intel® Xeon® Scalable processors |
Dual Socket E (LGA-4677)5th Gen Intel® Xeon® / 4th Gen Intel® Xeon® Scalable processors |
Dual Socket E (LGA-4677)5th Gen Intel® Xeon® / 4th Gen Intel® Xeon® Scalable processors |
Dual Socket E (LGA-4677)5th Gen Intel® Xeon® / 4th Gen Intel® Xeon® Scalable processorsSupports Intel Xeon CPU Max Series with high bandwidth memory (HBM) |
Memory |
Slot Count: 32 DIMM slotsMax Memory (1DPC): Up to 4TB 5600MT/s ECC DDR5 RDIMMMax Memory (2DPC): Up to 8TB 4400MT/s ECC DDR5 RDIMM |
Slot Count: 16 DIMM slotsMax Memory (1DPC): Up to 2TB 5600MT/s ECC DDR5 RDIMMMax Memory (2DPC): Up to 4TB 4400MT/s ECC DDR5 RDIMM |
Slot Count: 32 DIMM slotsMax Memory (1DPC): Up to 4TB 5600MT/s ECC DDR5 RDIMMMax Memory (2DPC): Up to 8TB 4400MT/s ECC DDR5 RDIMM |
Slot Count: 32 DIMM slotsMax Memory (1DPC): 4TB 5600MT/s ECC DDR5 RDIMMMax Memory (2DPC): 8TB 4400MT/s ECC DDR5 RDIMM |
形態 |
8U Rackmount型 |
Tower Rackmount型 |
5U Rackmount型 |
4U Rackmount型 |
GPUモデル |
NVIDIA SXM: HGX H100 8-GPU (80GB), HGX H200 8-GPU (141GB) |
NVIDIA PCIe: H100 NVL, H100, |
NVIDIA PCIe: H100 NVL, H100 |
NVIDIA SXM: HGX H100 8-GPU (80GB), HGX H200 8-GPU (141GB) |
冷却方法 |
空冷 |
空冷 |
空冷 |
水冷 |
Image |
![]() |
![]() |
![]() |
![]() |
お見積もり / お問い合わせ
AI TRY NOW PROGRAM とは
NVIDIA環境上で最新のAIソリューションを自社への導入前に検証できるサポートプログラムです。
NVIDIA AI Enterprise、NVIDIA OmniverseをはじめとするNVIDIA社提供のソフトウェア製品や弊社が提供可能なAIの学習向け環境・ツールの導入効果やアプリケーションの実現性をご購入前に検証可能です。