NVIDIA DGX H100
AI インフラの金字塔
NVIDIA DGX™ H100 はビジネスのイノベーションと最適化を支援します。NVIDIAの伝説的な DGX システムの最新モデルであり、NVIDIA DGX SuperPOD™の基盤である DGX H100 は、画期的な NVIDIA H100 Tensor コア GPU を搭載し、AI の活用を推し進めます。AI スループットを最大化するように設計されており、高度に洗練され、システム化された拡張可能なプラットフォームを企業に提供し、自然言語処理、リコメンデーション システム、データ分析などにおいて、飛躍的な進歩を達成できるように支援します。NVIDIA DGX H100 は、オンプレミスに導入できるほか、さまざまなアクセスと展開の選択肢があり、企業の大規模な課題を AIで解決するために必要なパフォーマンスを実現します。
製品スペック
NVIDIA DGX™ H100 |
|
GPUs |
8x NVIDIA H100 GPUs |
TFLOPS |
32 Peta FLOPS FP8 |
GPUメモリー |
80GB per GPU/640 GB per DGX H100 Node |
システムメモリー |
2TB |
ストレージ |
Data cache drives: 30TB (8x3.84TB) OS drives: 2x 1.92TB NVME SSDs |
ネットワーク |
4x OSFP ports serving 8x single-port NVIDIA ConnectX-7 400Gb/s InfiniBand/Ethernet 2x dual-port NVIDIA BlueField-3DPUs VPI 1x 400Gb/s InfiniBand/Ethernet 1x 200Gb/s InfiniBand/Ethernet |
NVIDIA DGX H100をネットワーク目線で解説した参考資料、
「ネットワーク視点のNVIDIA DGX™ H100 大解剖 ~GPUを最大限活かすNVIDIA ConnectX®-7の役割~」
をご用意しております。ぜひご活用ください。
NVIDIA DGX A100
NVIDIA A100上に構築された世界初のAIシステム
NVIDIA DGX ™ A100は、学習、推論、分析すべてのAIワークロードに対応するユニバーサルシステムであり、世界初の5ペタフロップスAIシステムでこれまでにない計算密度、パフォーマンス、柔軟性を提供します。NVIDIA DGX A100は、世界で最も先進的なアクセラレーターであるNVIDIA A100 Tensor Core GPUを備えており、VOLTA世代のGPUシステムに比べ20倍の性能を提供します。
製品スペック
|
NVIDIA DGX A100(640GB) |
NVIDIA DGX A100(320GB) |
GPU |
NVIDIA A100 80 GB GPU x 8 |
NVIDIA A100 40 GB GPU x 8 |
GPUメモリー |
640 GB total |
320 GB total |
演算性能 |
AI で 5 petaFLOPS INT8 で 10 petaOPS |
|
NVSwitch |
6 |
|
CPU |
Dual AMD Rome 7742,128 cores total, 2.25 GHz(base), 3.4 GHz (max boost) |
|
システムメモリー |
2TB |
1TB |
ネットワーク |
シングルポート Mellanox ConnectX-6 VPI 200 Gb/秒 HDR InfiniBand x 8 デュアルポート Mellanox ConnectX-6 VPI 10/25/50/100/200 Gb/ 秒 Ethernet x 2 |
シングルポート Mellanox ConnectX-6 VPI x 8 200 Gb/秒 HDR InfiniBand デュアルポート Mellanox ConnectX-6 VPI x 1 10/25/50/100/200 Gb/ 秒 Ethernet |
ストレージ |
OS:1.92 TB M.2 NVME ドライブ x 2 内部ストレージ: 30 TB(3.84 TB x 8) U.2 NVMe ドライブ |
OS:1.92 TB M.2 NVME ドライブ x 2 内部ストレージ: 15 TB(3.84 TB x 4) U.2 NVME ドライブ |
ソフトウェア |
Ubuntu Linux OS その他: Red Hat Enterprise LinuxCentOS |
|
重量 |
123.16 kg(最大) |
|
梱包重量 |
163.16 kg(最大) |
|
サイズ |
全高:264.0 mm 全幅:482.3 mm 奥行:897.1 mm |
|
運用温度範囲 |
5ºC~30ºC |
NVIDIA DGX STATION A100
AI 時代のワークグループ アライアンス
NVIDIA DGX Station A100は、AIスーパーコンピューティングをデータサイエンスチームにもたらし、データセンターやITインフラストラクチャーの増設なしにデータセンターテクノロジーを提供します。複数ユーザーが同時に接続できるように設計されており、DGX Station A100はオフィスに適したフォームファクターでサーバーグレードコンポーネントを活用します。完全に相互接続されたマルチインスタンスGPU(MIG)対応の4基のNVIDIA A100 TensorコアGPUと全体で最大320GBのGPUメモリを備えた唯一のシステムであり、標準的な電源コンセントにプラグ接続できるため、どこにでも配置できる強力なAIアプライアンスです。
製品スペック
|
NVIDIA DGX Station A100 320GB |
NVIDIA DGX Station A100 160GB |
GPU |
4x NVIDIA A100 80GB GPU |
4x NVIDIA A100 40GB GPUs |
GPUメモリー |
総計320GB |
総計160GB |
性能 |
2.5petaFLOPS AI 5petaOPS INT8 |
|
システム消費電力 |
1.5kW(100~120Vac時) |
|
CPU |
Single AMD 7742、64コア、 2.25GHz(ベース) ~3.4GHz(最大ブースト) |
|
システムメモリー |
512GB DDR4 |
|
ネットワーク |
デュアルポート10Gbase-T イーサネットLAN シングルポート1Gbase-T イーサネットBMCマネジメントポート |
|
ストレージ |
4GB GPUメモリ、 4x Mini DisplayPort |
|
システム音響特性 |
37dB未満 |
|
ソフトウェア |
Ubuntu Linux OS |
|
システム重量 |
43.1kg(91.0lbs) |
|
システム 梱包重量 |
57.93kg(127.7lbs) |
|
システムサイズ |
高さ:639mm(25.1in) 幅:256mm(10.1in) 長さ:518mm(20.4in) |
|
運用温度範囲 |
5~35 ºC(41~95 ºF) |
導入事例
お問い合わせ / お見積もり
AI TRY NOW PROGRAM とは
NVIDIA開発環境上で最新のAIソリューションを自社への導入前に検証できるサポートプログラムです。
NVIDIA AI Enterprise、NVIDIA Omniverseをはじめとするソフトウェア製品の理解を深めて、導入目的の実現性を事前に調査可能です。