NVIDIA H200 VS NVIDIA H100 SXM

H200 和 H100 SXM 都基于 NVIDIA 的 Hopper 架构。本对比帮助您在同一 GPU 系列的不同配置之间做出选择。

NVIDIA

H200

VRAM 141GB
FP32 67 TFLOPS
TDP 700W
起价 $1.49/h 4 个供应商
NVIDIA

H100 SXM

VRAM 80GB
FP32 67 TFLOPS
TDP 700W
起价 $0.73/h 40 个供应商

📊 详细规格对比

规格参数 H200 H100 SXM 差异
架构与设计
架构 Hopper Hopper -
制程节点 4nm 4nm -
目标市场 datacenter datacenter -
外形规格 SXM5 SXM5 -
内存
显存容量 141GB 80GB +76%
显存类型 HBM3e HBM3 -
内存带宽 4.8 TB/s 3.35 TB/s +43%
内存总线 6144-bit 5120-bit -
计算单元
CUDA 核心 16,896 16,896
Tensor 核心 528 528
性能 (TFLOPS)
FP32 (单精度) 67 TFLOPS 67 TFLOPS
FP16 (半精度) 1979 TFLOPS 1979 TFLOPS
TF32 (张量浮点) 989 TFLOPS 989 TFLOPS
FP64 (双精度) 34 TFLOPS 34 TFLOPS
功耗与连接
TDP (功耗) 700W 700W
PCIe PCIe 5.0 x16 PCIe 5.0 x16 -
NVLink NVLink 4.0 (900 GB/s) NVLink 4.0 (900 GB/s) -

🎯 使用场景推荐

🧠

大语言模型训练

NVIDIA H200

更大的显存容量和内存带宽对于训练大型语言模型至关重要。H200 提供 141GB,而 H100 SXM 提供 80GB。

AI 推理

NVIDIA H100 SXM

对于推理工作负载,每瓦性能最为重要。需要考虑 FP16/INT8 吞吐量与功耗之间的平衡。

💰

预算友好之选

NVIDIA H100 SXM

根据当前云端定价,H100 SXM 的起始小时费率更低。

NVIDIA H200 最适合:

  • 大规模大语言模型推理
  • 大上下文窗口模型
  • 预算受限部署

NVIDIA H100 SXM 最适合:

  • 大语言模型训练
  • 基础模型预训练
  • 小规模推理

常见问题

AI 训练选哪个更好:H200 还是 H100 SXM?

对于 AI 训练,关键因素是显存大小、内存带宽和张量核心性能。H200 提供 141GB HBM3e 内存,带宽为 4.8 TB/s;H100 SXM 提供 80GB HBM3 内存,带宽为 3.35 TB/s。对于更大的模型,H200 更高的显存容量使其更具优势。

H200 和 H100 SXM 在云端的价格差异是多少?

根据我们的数据,H200 起价为 $1.49/小时,H100 SXM 起价为 $0.73/小时。价格相差约 104%。

我可以用 H100 SXM 代替 H200 吗?

这取决于您的具体需求。如果您的模型可以在 80GB 显存内运行,且不需要 H200 的额外吞吐量,那么 H100 SXM 是一个经济实惠的选择。但是,对于需要最大内存容量或多 GPU 扩展的工作负载,H200 的NVLink 支持(NVLink 4.0 (900 GB/s))可能是必不可少的。

准备租用 GPU?

对比 50+ 云服务商的实时价格,找到最优惠的方案。