🇯🇵 日本語
AMD Instinct

MI300X 価格比較

192GB HBM3メモリを搭載したAMDのフラッグシップGPU。
大規模言語モデル(LLM)の学習・推論に最適なコストパフォーマンスを実現。

192GB HBM3 メモリ
5.3TB/s メモリ帯域
$2.10 最安値/時間

MI300X クラウドレンタル価格一覧

2026年2月時点のリアルタイム価格

プロバイダー 価格/時間 リージョン 在庫状況 特記事項
Vast.ai 最安値 $2.10 USD アメリカ (複数リージョン) P2Pマーケットプレイスのため価格変動あり
Lambda Labs $2.89 USD アメリカ (テキサス、カリフォルニア) ワンマンスプリット(8x MI300X)利用可能
CoreWeave $3.50 USD アメリカ (ラスベガス、シカゴ) 低〜中 エンタープライズ向け、長期契約推奨
TensorWave $2.45 USD アメリカ AMD専門のクラウドプロバイダー

※ 価格は2026年2月時点のもので、スポット価格や長期契約割引は含まれていません。
※ 実際の価格はプロバイダーのウェブサイトでご確認ください。

AMD Instinct MI300X 仕様

アーキテクチャ
CDNA 3
GPUダイ
13 (XCC + IOD)
メモリ
192GB HBM3
メモリ帯域
5.3 TB/s
FP16 (Tensor)
1.3 PFLOPS
FP8 (Tensor)
2.6 PFLOPS
TDP
750W
プロセス
5nm + 6nm

MI300X vs NVIDIA H100

大規模言語モデル(LLM)向けの比較

項目 AMD MI300X NVIDIA H100 優位性
メモリ容量 192GB 80GB MI300Xは2.4倍多い
メモリ帯域 5.3 TB/s 3.35 TB/s MI300Xは58%速い
FP16性能 1.3 PFLOPS 989 TFLOPS MI300Xは30%速い
1時間あたり価格 $2.10〜 $2.29〜 MI300Xは安価

どちらを選ぶべきか?

MI300X を選ぶ場合

  • 70B+ パラメータのLLMを単一GPUで実行したい
  • メモリ容量が最重要
  • コストパフォーマンスを重視
  • PyTorch/ROCm対応モデルを使用

H100 を選ぶ場合

  • CUDAエコシステムが必須
  • Transformer Engineを活用したい
  • NVLinkでの大規模クラスタリング
  • 業界標準の互換性が必要

よくある質問

MI300Xは日本のデータセンターで利用できますか?

現時点(2026年2月)では、MI300Xを提供している日本のクラウドプロバイダーはありません。 最も近いのはシンガポールリージョンを提供しているプロバイダーです。ただし、 LLMの学習や推論では、ある程度のネットワーク遅延が許容されるため、 アメリカ西海岸のデータセンターを利用するのが一般的です。

MI300XはPyTorchで動作しますか?

はい、PyTorchはROCm(AMDのGPUプラットフォーム)をサポートしています。 ただし、全てのCUDA機能がROCmで利用できるわけではなく、 一部のモデルやライブラリは変更が必要な場合があります。 Hugging FaceのTransformersなど、主要なライブラリは対応しています。

192GBメモリの実際のメリットは何ですか?

70BパラメータのLLM(例: Llama 2 70B)をFP16で単一GPUに収めることができます。 これにより、マルチGPUの通信オーバーヘッドがなくなり、 実は小規模モデルの推論ではH100より高速になるケースがあります。 また、長いコンテキスト(128Kトークン以上)の処理も可能になります。

価格は安定していますか?

Vast.aiなどのP2Pマーケットプレイスでは需給に応じて価格が変動します。 Lambda LabsやCoreWeaveなどの従来型クラウドプロバイダーでは、 スポット価格とオンデマンド価格があります。長期利用の場合は、 予約インスタンスや年間契約で大幅な割引を受けられる場合があります。

8枚のMI300Xを使ったマルチGPUは可能ですか?

はい、AMD Infinity Fabricリンクを使用した8枚構成が可能です。 Lambda Labsでは「ワンマンスプリット」としてこの構成を提供しています。 ノード内帯域はH100のNVLinkより低いものの、192GB×8=1.5TBという 驚異的なメモリ容量が実現できます。

MI300Xの最安値をチェック

リアルタイム価格と在庫状況を確認する

詳細ページへ →