PLAN

HGX B200料金プラン

価格/年数

(税込み)

通常価格 1年契約 2年契約 3年契約 5年契約
HGX B200 ¥2,970,000
通常価格
¥2,880,000 ¥2,750,000 ¥2,600,000 ¥2,400,000

SPEC

NVIDIA HGX B200のスペック

構成

シングルノード構成

特徴 HGX B200 x1ノード
月額費用(税込み) ¥2,970,000(税込み)
GPU/ノード NVIDIA B200 SXM  x8
GPUメモリ/ノード 総計1440 GB
GPUメモリ帯域幅 総計62TB/s(7.7TB/s x8)
GPU間通信(NVLink) 総計14.4 TB/s(1.8TB/s x8)

vCPU/ノード

112コア相当

システムメモリ/ノード 4TB
ストレージ/ノード 30TB NVMe

演算性能

(FP16 Tensorコア)

総計36PFLOPS

(4.5PetaFLOPS x8)

演算性能

(FP8 Tensorコア)

総計72PetaFLOPS

(9PetaFLOPS x8)

演算性能

(FP4 Tensorコア)

総計144PetaFLOPS

(18PetaFLOPS x8)

リージョン 日本

COMPARISON

AWS・GCP・AzureのGPUクラウドとの料金・性能比較

サービス

GPUSOROBAN
高速コンピューティング

Azure GCP AWS GCP Azure AWS
NVIDIA T4搭載 NVIDIA T4搭載 NVIDIA T4搭載 NVIDIA V100搭載 NVIDIA V100搭載 NVIDIA V100搭載
プラン s16-1-a-standard-ubs Standard_NC4as_T4_v3 n1-standard-8,T4 g4dn.2xlarge n1-highmem-8,V100 Standard_NC6s_v3 P3.2xlarge
従量課金の場合(1h) ¥50 ¥103 ¥128 ¥147 ¥423 ¥515 ¥608
月額費用の場合 ¥33,000 ¥75,213 ¥94,102 ¥107,585 ¥315,496 ¥377,191 ¥444,547
GPU NVIDIA A4000×1枚 NVIDIA T4×1枚 NVIDIA T4×1枚 NVIDIA T4×1枚 NVIDIA V100×1枚 NVIDIA V100×1枚 NVIDIA V100×1枚
GPUメモリ 16GB 16GB 16GB 16GB 16GB 16GB 16GB
vCPU 11コア 4コア 8コア 8コア 8コア 6コア 8コア
システムメモリ 50GB 28GB 30GB 32GB 52GB 112GB 61GB
演算性能(FP32) 19.2TFLOPS 8.1TFLOPS 8.1TFLOPS 8.1TFLOPS 14TFLOPS 14TFLOPS 14TFLOPS
リージョン 日本 日本 日本 日本 米国 日本 日本

PLAN

高速コンピューティングの料金プラン

インスタンス
ファミリー

s16-1-a s16-1-b t40-1-a t80-1-a t40-8-a t80-8-a
特徴 NVIDIA A4000 16GBx1枚 GPUメモリ 16GB
Ubuntu OS

NVIDIA A4000 16GBx1枚 GPUメモリ16GB
Windows OS

NVIDIA A100 40GBx1枚 GPUメモリ 40GB

NVIDIA A100 80GBx1枚 GPUメモリ 80GB

NVIDIA A100 40GBx8枚 GPUメモリ 320GB

NVIDIA A100 80GBx8枚 GPUメモリ 640GB

従量課金の場合
 [1h・台]

¥50 - ¥361 ¥398 - -

月額課金の場合
[月・台]

¥33,000 ¥54,450 ¥223,133 ¥243,631 ¥1,320,184 ¥1,985,940
GPU NVIDIA A4000 16GBx1枚 NVIDIA A4000 16GBx1枚 NVIDIA A100 40GBx1枚 NVIDIA A100 80GBx1枚 NVIDIA A100 40GBx8枚 NVIDIA A100 80GBx8枚
GPUメモリ 16GB 16GB 40GB 80GB 320GB 640GB
vCPU 11コア 20コア 15コア 20コア 254コア 254コア
システムメモリ 50GB 96GB 115GB 220GB 1TB 2TB
ストレージ

standard:100GB
容量UPはお問い合わせ

standard:500GB
容量UPはお問い合わせ

standard:100GB
500GB・1TBは別途料金

standard:100GB
500GB・1TBは別途料金

15TB
容量UPはお問い合わせ

15TB
容量UPはお問い合わせ

OS

Ubuntu
バージョン詳細

Windows
バージョン詳細

Ubuntu
バージョン詳細
Ubuntu
バージョン詳細
Ubuntu
バージョン詳細
 Ubuntu
バージョン詳細

プリインストール

Docker,CUDA,PyTorch等
プリインストール詳細

NVIDIAドライバ等
プリインストール詳細

Docker,CUDA,PyTorch等
プリインストール詳細

Docker,CUDA,PyTorch等
プリインストール詳細

Docker,CUDA,PyTorch等
プリインストール詳細

Docker,CUDA,PyTorch等
プリインストール詳細

演算性能(FP32) 19.2TFLOPS 19.2TFLOPS 19.5TFLOPS 19.5TFLOPS 156TFLOPS 156TFLOPS
演算性能(TF32) 153TFLOPS 153TFLOPS 312TFLOPS 312TFLOPS 2.5PFLPOS 2.5PFLPOS
演算性能(FP64) - - 9.7TFLOPS 9.7TFLOPS 77TFLOPS 77TFLOPS

PERFORMANCE

画像生成AI・言語生成(LLM)に最適なGPU

POINT01

高コスパモデル「NVIDIA A4000」

NVIDIA A4000は、機械学習に特化したTensorコアを搭載しているため、画像生成AIのタスクに適しています。A4000インスタンスは、他社GPUクラウドのNVIDIA T4インスタンスと比較して、2倍以上の演算性能を持ちながら50%以上安い料金になります。さらにA4000は他社GPUクラウドのV100インスタンスと比較しても、同等以上の演算性能を備えながら、約80%~90%安い料金となり、圧倒的なコストパフォーマンスを発揮します。

A4000 16GB

NVIDIA A4000とV100、T4のスペック比較

GPU NVIDIA A4000 NVIDIA V100 NVIDIA T4
世代 Ampere Volta Turing
GPUメモリ 16GB 16GB 16GB
演算性能(FP32) 19.2TFLOPS 14TFLOPS 8.1TFLOPS
演算性能(TF32) 153.4TFLOPS 112 TFLOPS 37.4TFLOPS

POINT02

高速・大容量GPU「NVIDIA A100 80GB」

NVIDIA A100は前世代V100と比べて5倍の「GPUメモリ80GB」であり、大容量GPUメモリを必要とする画像生成AIや大規模言語モデル(LLM)などの機械学習に最適です。さらにA100はV100と比べて2倍の「GPUメモリ帯域幅」を持ちます。GPUメモリ帯域幅は、計算時のデータ転送を高速に行うために重要な要素であり、特に大規模なデータセットや複雑な計算を必要とするタスクでは、高い帯域幅がパフォーマンスの向上に直結します。

A100 80GB

NVIDIA A100と前世代V100のスペック比較

GPU NVIDIA A100 80GB NVIDIA V100 16GB
世代 Ampere Volta
GPUメモリ 80GB 16GB
GPUメモリ帯域幅 1,935GB/秒 900GB/秒
演算性能(FP32) 19.5TFLOPS 14TFLOPS
演算性能(TF32) 312TFLOPS 112 TFLOPS
演算性能(FP64) 9.7TFLOPS 7TFLOPS

POINT03

GPUメモリ640GBの大規模モデル「NVIDIA HGX A100」

NVIDIA HGX A100は8枚のNVIDIA A100を搭載した、GPUメモリ640GBの大容量GPUサーバーです。マルチGPUを使用による深層分散学習が可能になり、大規模な言語モデル(LLM)や画像生成AIなど機械学習のワークロードを高速化します。マルチGPUではGPU間通信の速度が重要になります。HGX A100はNVLinkを採用し、GPU間の通信帯域幅は 600 ギガバイト/秒 (GB/s) です。これはPCIe接続(Gen4)の帯域幅と比べて10倍となり、マルチGPUのパフォーマンスを大幅に向上します。

HGX 640GB

NVIDIA HGX A100とDGX-1 V100のスペック比較

GPUサーバー NVIDIA HGX A100 NVIDIA DGX-1 V100
GPU NVIDIA A100 80GB x8枚 NVIDIA V100 32GB x8枚
GPUメモリ 総計640GB 総計256GB
GPUメモリ帯域幅 2,039GB/秒

1,134GB/秒

GPU間の通信帯域幅

600GB/秒 300GB/秒
演算性能(FP32) 156TFLOPS 120TFLOPS
演算性能(TF32) 2.5PFLOPS 1PFLOPS
演算性能(FP64) 77TFLOPS 60TFLOPS

GPUクラウドサービスについてのお問い合わせ

GPUクラウドサービスについてのご質問、お見積もりのご依頼などお待ちしております。下記からお問い合わせください。