報告によると、NVIDIA AI GPU H200の上流のチップ端は、第2四半期に大量生産期間に入り、第3四半期以降に大量に配達されると予想されます。しかし、Nvidia Blackwellプラットフォームの発売スケジュールは、スケジュールより少なくとも1〜2四半期前にあり、これはエンド顧客がH200を購入する意欲に影響します。
サプライチェーンは、現在、貨物を待っているクライアントの注文は、H100のHGXアーキテクチャにまだ主に集中しており、H200の割合は限られていると指摘しています。Q3では、大量生産および配信されるH200は主にNvidia DGX H200です。B100に関しては、すでに部分的な可視性があり、来年上半期に出荷される予定です。
H100 GPUの反復アップグレード製品として、H200は高度なホッパーアーキテクチャに基づいてHBM3E高帯域幅メモリテクノロジーを初めて採用し、より速いデータ転送速度とより大きなメモリ容量を達成し、特に大規模な言語モデルアプリケーションに大きな利点を示します。NVIDIAがリリースした公式データによると、MetaのLLAMA2などの複雑な大規模な言語モデルを扱う場合、H200はH100と比較して生成AI出力応答速度で45%の最大改善があります。
H200は、AIコンピューティングの分野におけるNVIDIAの別のマイルストーン産物として配置されており、H100の利点を継承するだけでなく、メモリパフォーマンスの大きなブレークスルーを達成します。H200の商用アプリケーションにより、帯域幅の高いメモリの需要が増加し続けると予想され、AIコンピューティングハードウェア業界チェーン全体、特にHBM3E関連のサプライヤーの市場機会の開発がさらに促進されます。
B100 GPUは液体冷却技術を採用します。熱散逸は、チップのパフォーマンスを改善する重要な要因となっています。Nvidia H200 GPUのTDPは700Wですが、B100のTDPはキロワットに近いと保証されていると推定されています。従来の空気冷却は、チップ操作中に熱散逸要件を満たすことができない可能性があり、熱散逸技術は液体冷却に向けて包括的に革新されます。
Nvidia CEOのHuang Renxunは、B100 GPUから始まって、将来のすべての製品の冷却技術が空冷から液体冷却に移行すると述べました。Galaxy Securitiesは、NvidiaのB100GPUはH200の少なくとも2倍のパフォーマンスを持ち、H100の4倍を超えると考えています。チップのパフォーマンスの改善は、一部は高度なプロセスによるものであり、一方で、熱放散はチップのパフォーマンスを改善する重要な要因となっています。NvidiaのH200 GPUのTDPは700Wであり、これは控えめにキロワットに近いと推定されています。従来の空気冷却は、チップ操作中に熱散逸のニーズを満たすことができない可能性があり、熱散逸技術は液体冷却に完全に革新されます。