PLAN
HGX B200料金プラン
価格/年数 (税込み) |
通常価格 | 1年契約 | 2年契約 | 3年契約 | 5年契約 |
---|---|---|---|---|---|
HGX B200 | ¥2,970,000 通常価格 |
¥2,880,000 | ¥2,750,000 | ¥2,600,000 | ¥2,400,000 |
SPEC
NVIDIA HGX B200のスペック
構成 |
シングルノード構成 |
---|---|
特徴 | HGX B200 x1ノード |
月額費用(税込み) | ¥2,970,000(税込み) |
GPU/ノード | NVIDIA B200 SXM x8 |
GPUメモリ/ノード | 総計1440 GB |
GPUメモリ帯域幅 | 総計62TB/s(7.7TB/s x8) |
GPU間通信(NVLink) | 総計14.4 TB/s(1.8TB/s x8) |
vCPU/ノード |
112コア相当 |
システムメモリ/ノード | 4TB |
ストレージ/ノード | 30TB NVMe |
演算性能 (FP16 Tensorコア) |
総計36PFLOPS (4.5PetaFLOPS x8) |
演算性能 (FP8 Tensorコア) |
総計72PetaFLOPS (9PetaFLOPS x8) |
演算性能 (FP4 Tensorコア) |
総計144PetaFLOPS (18PetaFLOPS x8) |
リージョン | 日本 |
COMPARISON
AWS・GCP・AzureのGPUクラウドとの料金・性能比較
サービス |
GPUSOROBAN |
Azure | GCP | AWS | GCP | Azure | AWS |
NVIDIA T4搭載 | NVIDIA T4搭載 | NVIDIA T4搭載 | NVIDIA V100搭載 | NVIDIA V100搭載 | NVIDIA V100搭載 | ||
プラン | s16-1-a-standard-ubs | Standard_NC4as_T4_v3 | n1-standard-8,T4 | g4dn.2xlarge | n1-highmem-8,V100 | Standard_NC6s_v3 | P3.2xlarge |
従量課金の場合(1h) | ¥50 | ¥103 | ¥128 | ¥147 | ¥423 | ¥515 | ¥608 |
月額費用の場合 | ¥33,000 | ¥75,213 | ¥94,102 | ¥107,585 | ¥315,496 | ¥377,191 | ¥444,547 |
GPU | NVIDIA A4000×1枚 | NVIDIA T4×1枚 | NVIDIA T4×1枚 | NVIDIA T4×1枚 | NVIDIA V100×1枚 | NVIDIA V100×1枚 | NVIDIA V100×1枚 |
GPUメモリ | 16GB | 16GB | 16GB | 16GB | 16GB | 16GB | 16GB |
vCPU | 11コア | 4コア | 8コア | 8コア | 8コア | 6コア | 8コア |
システムメモリ | 50GB | 28GB | 30GB | 32GB | 52GB | 112GB | 61GB |
演算性能(FP32) | 19.2TFLOPS | 8.1TFLOPS | 8.1TFLOPS | 8.1TFLOPS | 14TFLOPS | 14TFLOPS | 14TFLOPS |
リージョン | 日本 | 日本 | 日本 | 日本 | 米国 | 日本 | 日本 |
PLAN
高速コンピューティングの料金プラン
インスタンス |
s16-1-a | s16-1-b | t40-1-a | t80-1-a | t40-8-a | t80-8-a |
特徴 | NVIDIA A4000 16GBx1枚
GPUメモリ 16GB Ubuntu OS |
NVIDIA A4000 16GBx1枚
GPUメモリ16GB |
NVIDIA A100 40GBx1枚 GPUメモリ 40GB |
NVIDIA A100 80GBx1枚 GPUメモリ 80GB |
NVIDIA A100 40GBx8枚 GPUメモリ 320GB |
NVIDIA A100 80GBx8枚 GPUメモリ 640GB |
従量課金の場合 |
¥50 | - | ¥361 | ¥398 | - | - |
月額課金の場合 |
¥33,000 | ¥54,450 | ¥223,133 | ¥243,631 | ¥1,320,184 | ¥1,985,940 |
GPU | NVIDIA A4000 16GBx1枚 | NVIDIA A4000 16GBx1枚 | NVIDIA A100 40GBx1枚 | NVIDIA A100 80GBx1枚 | NVIDIA A100 40GBx8枚 | NVIDIA A100 80GBx8枚 |
GPUメモリ | 16GB | 16GB | 40GB | 80GB | 320GB | 640GB |
vCPU | 11コア | 20コア | 15コア | 20コア | 254コア | 254コア |
システムメモリ | 50GB | 96GB | 115GB | 220GB | 1TB | 2TB |
ストレージ |
standard:100GB |
standard:500GB |
standard:100GB |
standard:100GB 500GB・1TBは別途料金 |
15TB |
15TB |
OS |
Ubuntu |
Windows |
Ubuntu バージョン詳細 |
Ubuntu バージョン詳細 |
Ubuntu バージョン詳細 |
バージョン詳細 |
Ubuntu
プリインストール |
Docker,CUDA,PyTorch等 |
NVIDIAドライバ等 |
Docker,CUDA,PyTorch等 |
Docker,CUDA,PyTorch等 |
Docker,CUDA,PyTorch等 |
Docker,CUDA,PyTorch等 |
演算性能(FP32) | 19.2TFLOPS | 19.2TFLOPS | 19.5TFLOPS | 19.5TFLOPS | 156TFLOPS | 156TFLOPS |
演算性能(TF32) | 153TFLOPS | 153TFLOPS | 312TFLOPS | 312TFLOPS | 2.5PFLPOS | 2.5PFLPOS |
演算性能(FP64) | - | - | 9.7TFLOPS | 9.7TFLOPS | 77TFLOPS | 77TFLOPS |
PERFORMANCE
画像生成AI・言語生成(LLM)に最適なGPU
POINT01
高コスパモデル「NVIDIA A4000」
NVIDIA A4000は、機械学習に特化したTensorコアを搭載しているため、画像生成AIのタスクに適しています。A4000インスタンスは、他社GPUクラウドのNVIDIA T4インスタンスと比較して、2倍以上の演算性能を持ちながら50%以上安い料金になります。さらにA4000は他社GPUクラウドのV100インスタンスと比較しても、同等以上の演算性能を備えながら、約80%~90%安い料金となり、圧倒的なコストパフォーマンスを発揮します。

NVIDIA A4000とV100、T4のスペック比較
GPU | NVIDIA A4000 | NVIDIA V100 | NVIDIA T4 |
---|---|---|---|
世代 | Ampere | Volta | Turing |
GPUメモリ | 16GB | 16GB | 16GB |
演算性能(FP32) | 19.2TFLOPS | 14TFLOPS | 8.1TFLOPS |
演算性能(TF32) | 153.4TFLOPS | 112 TFLOPS | 37.4TFLOPS |
POINT02
高速・大容量GPU「NVIDIA A100 80GB」
NVIDIA A100は前世代V100と比べて5倍の「GPUメモリ80GB」であり、大容量GPUメモリを必要とする画像生成AIや大規模言語モデル(LLM)などの機械学習に最適です。さらにA100はV100と比べて2倍の「GPUメモリ帯域幅」を持ちます。GPUメモリ帯域幅は、計算時のデータ転送を高速に行うために重要な要素であり、特に大規模なデータセットや複雑な計算を必要とするタスクでは、高い帯域幅がパフォーマンスの向上に直結します。

NVIDIA A100と前世代V100のスペック比較
GPU | NVIDIA A100 80GB | NVIDIA V100 16GB |
---|---|---|
世代 | Ampere | Volta |
GPUメモリ | 80GB | 16GB |
GPUメモリ帯域幅 | 1,935GB/秒 | 900GB/秒 |
演算性能(FP32) | 19.5TFLOPS | 14TFLOPS |
演算性能(TF32) | 312TFLOPS | 112 TFLOPS |
演算性能(FP64) | 9.7TFLOPS | 7TFLOPS |
POINT03
GPUメモリ640GBの大規模モデル「NVIDIA HGX A100」
NVIDIA HGX A100は8枚のNVIDIA A100を搭載した、GPUメモリ640GBの大容量GPUサーバーです。マルチGPUを使用による深層分散学習が可能になり、大規模な言語モデル(LLM)や画像生成AIなど機械学習のワークロードを高速化します。マルチGPUではGPU間通信の速度が重要になります。HGX A100はNVLinkを採用し、GPU間の通信帯域幅は 600 ギガバイト/秒 (GB/s) です。これはPCIe接続(Gen4)の帯域幅と比べて10倍となり、マルチGPUのパフォーマンスを大幅に向上します。

NVIDIA HGX A100とDGX-1 V100のスペック比較
GPUサーバー | NVIDIA HGX A100 | NVIDIA DGX-1 V100 |
---|---|---|
GPU | NVIDIA A100 80GB x8枚 | NVIDIA V100 32GB x8枚 |
GPUメモリ | 総計640GB | 総計256GB |
GPUメモリ帯域幅 | 2,039GB/秒 |
1,134GB/秒 |
GPU間の通信帯域幅 |
600GB/秒 | 300GB/秒 |
演算性能(FP32) | 156TFLOPS | 120TFLOPS |
演算性能(TF32) | 2.5PFLOPS | 1PFLOPS |
演算性能(FP64) | 77TFLOPS | 60TFLOPS |