NVIDIA DGX SYSTEMS

AI スーパーコンピューター専用の

世界初のポートフォリオ

DGX SYSTEMS

NVIDIA DGX ™ システムは、AI とデータサイエンスを導入する企業 の要求に応じた専用システムであり、インサイト獲得を数ヵ月後で はなく数時間で実現するために、AI 開発を最速で開始し、無理な く生産性を高め、画期的な性能をもたらします。
革新的な GPU 最適化ソフトウェアとシンプルな管理ツールを組み 合わせたこの完全統合型システムは、オフィスからデータセンター まで、AI 開発の最も強力なツールをデータサイエンティストに提供 するために設計されています。より早く実験し、最大規模のモデル をより高速でトレーニングし、データからインサイトを獲得しましょ う。第 1 日目から始められます。

NVIDIA DGX H100

AI インフラストラクチャの金字塔。エンタープライズ AI 向けの、世界で認められた選択肢

NVIDIA DGX™ H100 でイノベーションと最適化の限界を広げましょう。NVIDIA の伝説というべき DGX Systems の最新バージョンであり、NVIDIA DGX SuperPOD™ の基盤となっている DGX H100 は、NVIDIA H100 Tensor コア GPU の画期的なパフォーマンスによって加速される、AI 対応の高性能製品です。

NVIDIA DGX STATION A100

Characteristic特 徴

AI センター オブ エクセレンスの第一歩

DGX H100 は、世界初の専用 AI インフラストラクチャの第 4 世代であり、完全に最適化されたハードウェアおよびソフトウェア プラットフォームです。新しい NVIDIA AI ソフトウェア ソリューションに対応し、多様なサードパーティのサポートを受けられるエコシステムを利用でき、NVIDIA プロフェッショナル サービスによりエキスパートからのアドバイスを受けることができます。

AI の障壁を大胆に打ち破る

NVIDIA DGX H100 は 6 倍高速なパフォーマンス、2 倍高速なネットワーキング、およびハイスピードなスケーラビリティを NVIDIA DGX SuperPOD に対して発揮します。この次世代アーキテクチャは、自然言語処理やディープラーニングによるレコメンデーション モデルといった大規模なワークロードに対応できるように強化されています。

思いのままに使える、リーダーシップクラスのインフラストラクチャ

DGX H100 は、オンプレミスにインストールして直接管理したり、NVIDIA DGX 対応のデータ センターでの設置、NVIDIA 認定のマネージド サービス プロバイダーを通じてアクセスすることもできます。また、 DGX 対応のライフサイクル管理により、組織は予測性の高い財務モデルを入手して、最先端のデプロイメントを維持できます。

SummaryDGX H100 の高性能コンポーネントをご覧ください。

NVIDIA DGX
  1. NVIDIA H100 GPU x8、合計 GPU メモリ 640GB GPU あたり 18 NVIDIA® NVLinks®、GPU 間の双方向帯域幅 900GB/秒
  2. NVIDIA NVSWITCHES™ x4 7.2 テラバイト/秒の GPU 間双方向帯域幅 、前世代比 1.5 倍以上
  3. NVIDIA CONNECTX®-7 x8 および、NVIDIA BLUEFIELD® DPU 400Gb/秒 ネットワーク インターフェイス x2 ピーク時の双方向ネットワーク帯域幅 1TB/秒
  4. デュアル x86 CPU と 2TB システム メモリ AI への依存が非常に高い仕事を可能にするパワフルな CPU
  5. 30TB NVMe SSD 最高のパフォーマンスを実現するための高速ストレージ

NVIDIA DGX A100

NVIDIA DGX-2

NVIDIA A100 で構築された
世界初の AI システム

NVIDIA DGX™ A100 はあらゆる AI ワークフローのためのユニバーサル システムであり、前例のない計算処理密度、パフォーマンス、柔軟性を提供する世界初の 5 ペタフロップス AI システムです。NVIDIA DGX A100 は世界最先端のアクセラレータ、NVIDIA A100 Tensor コア GPU を備えています。企業はトレーニング、推論、分析ワークロードを、配備が容易でNVIDIA の AI 専門家の支援も受けられる単一の AI インフラストラクチャに統合できます。

NVIDIA A100 Tensor コア GPU

NVIDIA A100 Tensor コア GPU による前例のない高速化をもって、世界で最も困難な計算に AI、データ分析、HPC (ハイ パフォーマンス コンピューティング) で挑むことができます。第 3 世代の NVIDIA Tensor コアにより性能を大幅に向上できるようになり、A100 GPU を効率的に数千までスケール アップできます。また、マルチインスタンス GPU を使用すれば、あらゆるサイズのワークフローを加速するために 7 つの小さな専用インスタンスとして割り当てることができます。

Characteristic特 徴

すべての AI ワークフローのための
ユニバーサル システム

NVIDIA DGX A100 は、分析からトレーニング、推論に至るまで、あらゆる AI インフラストラクチャのためのユニバーサル システムです。6U のフォームファクタに 5 ペタフロップスの AI パフォーマンスを詰め込み、従来のインフラストラクチャのサイロを、すべての AI ワークフローに対応する単一のプラットフォームに置き換えることで、計算処理密度の新しい水準を確立します。

DGXperts: AI の専門知識への統合的アクセス

NVIDIA DGXperts は、お客様による DGX 投資への価値を最大化できるよう過去 10 年間にわたり豊富な経験を積んできた、14,000 人を超える AI に精通した専門家から成る世界的なチームです。

最速で解決

NVIDIA DGX A100 は、NVIDIA A100 Tensor コア GPU を搭載した世界初のシステムです。8 つの A100 GPU を統合したこのシステムは、これまでにないアクセラレーションを提供し、NVIDIA CUDA-X™ソフトウェアとエンドツーエンドのNVIDIA データ センターソリューション スタック用に完全に最適化されています。 

比類ないデータ センターの拡張性

NVIDIA DGX A100 は、ピーク時の双方向帯域幅が 450 ギガバイト/秒 (GB/s) の Mellanox ネットワーキングを内蔵しています。これは、スケーラブル AI インフラストラクチャのリファレンス アーキテクチャとなるNVIDIA DGX SuperPOD™ などの大規模 AI クラスターの基本構成要素に DGX A100 を据えるための数ある機能の中の 1 つです。

 
 

NVIDIA DGX A100

SummaryDGX A100 の高性能コンポーネントをご覧ください。

  1. 8 つの NVIDIA A100 GPU、合計 GPU メモリ 320 GB
    GPU あたり 12 の NVLink GPU から GPU への帯域幅: 600 GB/秒
  2. 6 基の NVIDIA NVSWITCH
    双方向の帯域幅: 4.8 TB/秒前世代と比較して 2 倍
  3. 9 MELLANOX CONNECTX-6 200/Gb ネットワーク インターフェイス
    ピーク時の双方向の帯域幅: 450 GB/秒
  4. デュアル 64 コア AMD CPU と 1 TB システム メモリ
    3.2 倍のコアで最も集中的な AI ジョブを強化
  5. 15 TB の GEN4 NVME SSD
    ピーク時の帯域幅: 25 GB/秒Gen3 NVME SSD より 2 倍高速

NVIDIA DGX SYSTEMS

世界最高の性能を誇る PC GPU

  • 最適化されたディープラーニング ソフトウェアの統合スイート
  • シンプルな作業負荷管理
  • ユーザー ガイド: NVIDIA コンテナーおよびディープラーニング フレームワーク

短時間で使用開始

  • 数か月ではなく、1 日で始められます。
  • 箱から取り出し、接続するだけで、結果の表示が始まります。

高い生産性

  • エンジニアリングにかかる数十万ドルのお金を節約
  • 何か月もの間、IT に生産性が費やされることを回避

妥協のない性能

  • NVIDIA DGX Systems と Volta で、前世代を 3 倍上回る速さ
  • ディープラーニング トレーニング、推論、高速分析を 1 つのシステムで

NVIDIA DGX STATION A100

ハイパフォーマンス コンピューティング

HPC (ハイ パフォーマンス コンピューティング) は、科学進歩の力となる最も重要なツールの 1 つです。さまざまな分野にわたり、700 超のアプリケーションを最適化する NVIDIA GPU は、まさに現代の HPC データ センターのエンジンであると言えるでしょう。NVIDIA A100 Tensor コア GPU を 4 基搭載した DGX Station A100 は、HPC クラスターにデプロイする前に科学ワークロードを開発者がテストするのに最適なシステムです。オフィスや、さらには自宅でも、画期的なパフォーマンスを実現します。

NVIDIA DGX STATION A100

Characteristic特 徴

データ サイエンス チームのための
AI スーパーコンピューター

DGX Station A100 を利用すれば、組織は、NVIDIA DGX™ ベースの他のインフラストラクチャとシームレスに統合されたシステムを利用し、あらゆるワークロード (トレーニング、推論、データ分析) のために、集中型 AI リソースを複数のユーザーに提供できます。また、マルチインスタンス GPU (MIG) を利用すると、最大 28 台の独立した GPU デバイスを個々のユーザーに割り当てることができます。

データ センターなしで
データ センターのパフォーマンス

DGX Station A100 は、サーバー級ながら、データ センターの電力と冷却機能を必要としない AI システムです。DGX Station A100 は 4 つの NVIDIA A100 Tensor コア GPU、最上位のサーバー級 CPU、超高速 NVMe ストレージ、最先端の PCIe Gen4 バスを備えています。それに加えてリモート管理が可能で、サーバーのように管理できます。

どこにでも配置できる
AI アプライアンス

企業のオフィス、研究室、研究施設、さらには自宅で作業する今日のアジャイル データ サイエンス チームのために設計された DGX Station A100 には、複雑な設置作業も、多額の IT 投資も必要ありません。一般的なコンセントにプラグを差し込むだけで数分後には稼働し、どこからでも作業できます。

より大規模なモデル、
より高速な応答

NVIDIA DGX Station A100 は、MIG 対応 NVIDIA A100 GPU が 4 つ完全相互接続された、世界で唯一のワークステーションスタイル システムです。NVIDIA® NVLink® によって、システム パフォーマンスに影響を与えることなく、並列ジョブを実行し、複数のユーザーに対処します。完全に GPU 最適化されたソフトウェア スタックと最大 320 ギガバイト (GB) の GPU メモリで大規模モデルをトレーニングできます。

SummaryDGX Station A100 の高性能コンポーネントをご覧ください。

NVIDIA DGX
  1. 水冷
    高性能ながら、ささやき声のような静音性。オフィス用のコンピューターとして最適。
  2. 64コアのAMD CPUとPCIe Gen4
    3.2倍のコア数で、複数のユーザーと最も負荷の高いAIジョブに対応します。
  3. リモート管理
    統合された1Gbase-Tイーサネットベースボードと管理コントローラ(BMC)ポート。
  4. NVIDIA DGX™ ディスプレイ・アダプター
    4つのmini DPと4K モニター解像度に対応。
  5. 4X NVIDIA A100 TENSOR コア GPU
    160または320ギガバイト(GB)のGPUメモリを搭載。高帯域幅で完全に相互接続された200 GB/sの高帯域幅の第3世代NVLink®で完全に相互接続。
  6. PCIe Gen4 対応7.68TB NVMe SSD
    1.4M IOPSのストレージ性能と、PCIe Gen3 NVMe SSDの2倍の速度を実現。