NVIDIA DGX Systems

NVIDIA DGX H100

AI インフラの金字塔

NVIDIA DGX H100 はビジネスのイノベーションと最適化を支援します。NVIDIAの伝説的な DGX システムの最新モデルであり、NVIDIA DGX SuperPOD™の基盤である DGX H100 は、画期的な NVIDIA H100 Tensor コア GPU を搭載し、AI の活用を推し進めます。AI スループットを最大化するように設計されており、高度に洗練され、システム化された拡張可能なプラットフォームを企業に提供し、自然言語処理、リコメンデーション システム、データ分析などにおいて、飛躍的な進歩を達成できるように支援します。NVIDIA DGX H100 は、オンプレミスに導入できるほか、さまざまなアクセスと展開の選択肢があり、企業の大規模な課題を AIで解決するために必要なパフォーマンスを実現します。

製品スペック

NVIDIA DGX™ H100

GPUs

8x NVIDIA H100 GPUs

TFLOPS

32 Peta FLOPS FP8

GPUメモリー

80GB per GPU/640 GB per

DGX H100 Node

システムメモリー

2TB

ストレージ

Data cache drives: 30TB

(8x3.84TB)

OS drives: 2x 1.92TB NVME SSDs

ネットワーク

4x OSFP ports serving 8x single-port

NVIDIA ConnectX-7

400Gb/s InfiniBand/Ethernet

2x dual-port NVIDIA BlueField-3DPUs VPI

1x 400Gb/s InfiniBand/Ethernet

1x 200Gb/s InfiniBand/Ethernet

NVIDIA DGX H100をネットワーク目線で解説した参考資料、

「ネットワーク視点のNVIDIA DGX™ H100 大解剖 ~GPUを最大限活かすNVIDIA ConnectX®-7の役割~」

をご用意しております。ぜひご活用ください。

NVIDIA DGX A100

NVIDIA A100上に構築された世界初のAIシステム

NVIDIA DGX A100

NVIDIA DGX ™ A100は、学習、推論、分析すべてのAIワークロードに対応するユニバーサルシステムであり、世界初の5ペタフロップスAIシステムでこれまでにない計算密度、パフォーマンス、柔軟性を提供します。NVIDIA DGX A100は、世界で最も先進的なアクセラレーターであるNVIDIA A100 Tensor Core GPUを備えており、VOLTA世代のGPUシステムに比べ20倍の性能を提供します。

製品スペック

 

NVIDIA DGX A100(640GB)

NVIDIA DGX A100(320GB)

GPU

NVIDIA A100

80 GB GPU x 8

NVIDIA A100

40 GB GPU x 8

GPUメモリー

640 GB total

320 GB total

演算性能

AI で 5 petaFLOPS

INT8 で 10 petaOPS

NVSwitch

6

CPU

Dual AMD Rome 7742,128 cores total, 2.25 GHz(base), 3.4 GHz (max boost)

システムメモリー

2TB

1TB

ネットワーク

シングルポート

Mellanox ConnectX-6

VPI

200 Gb/秒 HDR

InfiniBand x 8

デュアルポート

Mellanox ConnectX-6

VPI

10/25/50/100/200 Gb/

秒 Ethernet x 2

シングルポート

Mellanox ConnectX-6

VPI x 8

200 Gb/秒 HDR

InfiniBand

デュアルポート

Mellanox ConnectX-6

VPI x 1

10/25/50/100/200 Gb/

秒 Ethernet

ストレージ

OS:1.92 TB M.2 NVME

ドライブ x 2

内部ストレージ:

30 TB(3.84 TB x 8)

U.2 NVMe ドライブ

OS:1.92 TB M.2 NVME

ドライブ x 2

内部ストレージ:

15 TB(3.84 TB x 4)

U.2 NVME ドライブ

ソフトウェア

Ubuntu Linux OS

その他:

Red Hat Enterprise

LinuxCentOS

重量

123.16 kg(最大)

梱包重量

163.16 kg(最大)

サイズ

全高:264.0 mm

全幅:482.3 mm

奥行:897.1 mm

運用温度範囲

5ºC~30ºC

NVIDIA DGX STATION A100

AI 時代のワークグループ アライアンス

NVIDIA DGX Station A100は、AIスーパーコンピューティングをデータサイエンスチームにもたらし、データセンターやITインフラストラクチャーの増設なしにデータセンターテクノロジーを提供します。複数ユーザーが同時に接続できるように設計されており、DGX Station A100はオフィスに適したフォームファクターでサーバーグレードコンポーネントを活用します。完全に相互接続されたマルチインスタンスGPU(MIG)対応の4基のNVIDIA A100 TensorコアGPUと全体で最大320GBのGPUメモリを備えた唯一のシステムであり、標準的な電源コンセントにプラグ接続できるため、どこにでも配置できる強力なAIアプライアンスです。

製品スペック

 

NVIDIA DGX

Station A100

320GB

NVIDIA DGX

Station A100

160GB

GPU

4x NVIDIA A100

80GB GPU

4x NVIDIA A100

40GB GPUs

GPUメモリー

総計320GB

総計160GB

性能

2.5petaFLOPS AI

5petaOPS INT8  

システム消費電力

1.5kW(100~120Vac時)

CPU

Single AMD 7742、64コア、

2.25GHz(ベース)

~3.4GHz(最大ブースト) 

システムメモリー

512GB DDR4

ネットワーク

デュアルポート10Gbase-T

イーサネットLAN

シングルポート1Gbase-T

イーサネットBMCマネジメントポート 

ストレージ

4GB GPUメモリ、

4x Mini DisplayPort 

システム音響特性

37dB未満 

ソフトウェア

Ubuntu Linux OS 

システム重量

43.1kg(91.0lbs) 

システム 梱包重量

57.93kg(127.7lbs) 

システムサイズ

高さ:639mm(25.1in)

幅:256mm(10.1in)

長さ:518mm(20.4in)

運用温度範囲

5~35 ºC(41~95 ºF) 

導入事例

お問い合わせ / お見積もり

AI TRY NOW PROGRAM とは​

NVIDIA開発環境上で最新のAIソリューションを自社への導入前に検証できるサポートプログラムです。​
NVIDIA AI Enterprise、NVIDIA Omniverseをはじめとするソフトウェア製品の理解を深めて、導入目的の実現性を事前に調査可能です。

関連製品ページ