NVIDIA H100

ディープラーニング、大規模言語モデルの推論、および大規模な科学計算用に設計された高性能プロフェッショナル級GPU。

全ネット最安価格
$0.73 /h
678 個の構成を比較 すべての価格を比較 ↓

構成と価格のフィルタリング

最安の上位5構成のみを表示しています。

プロバイダー 構成 総VRAM vCPU メモリ 支払い方法 単価/h 更新日

過去の価格推移

AIトレーニング性能と適用シナリオ

AI 分析

NVIDIA H100 Tensor コア GPU は、大規模な AI トレーニングと推論の現在の業界標準です。Transformer エンジンと 80GB の高帯域幅メモリ (HBM3) を搭載し、前世代の A100 と比較して最大 9 倍の AI トレーニング速度を実現します。CloudGPUTracker では、グローバルプロバイダーからの H100 インスタンスを監視しています。開発用のシングル PCIe カードが必要な場合でも、大規模な LLM 微調整用の 8x SXM クラスターが必要な場合でも、当社のトラッカーは世界中のプロバイダー全体で即時の可用性を見つけるのに役立ちます。

H100 は、フラッグシップ級の Inferred GPUです。 80GB HBM3 の大容量高速VRAMにより、大規模モデルの微調整 (Fine-tuning)、大規模言語モデル (LLM)、高次元データスループットの処理に優れています。

推奨されるトレーニング/使用シナリオ

LLM Training
Advanced AI Research
Deep Learning Fine-tuning

技術仕様

アーキテクチャ
Hopper
VRAM容量
80GB HBM3
VRAM帯域幅
3350 GB/s
CUDAコア数
16896
FP16演算性能
1979 TFLOPS
最大消費電力 (TDP)
700W

人気のGPU比較