2024年の電子展の聴衆のための指示

今すぐあなたの時間を予約してください!

数回クリックして座席を予約し、ブースチケットを入手してください!

ホールC5ホール220ブース

事前に登録します

2024年の電子展の聴衆のための指示
あなたは皆サインアップしました! 予約していただきありがとうございます!
予約を確認した後、メールでブースチケットをお送りします。
まず  ページ > ニュース > Nvidia H200注文は第3四半期に配達を開始し、B100は来年上半期に出荷されると予想されます
問い合わせ/注文 (0)
日本語
日本語

Nvidia H200注文は第3四半期に配達を開始し、B100は来年上半期に出荷されると予想されます


報告によると、NVIDIA AI GPU H200の上流のチップ端は、第2四半期に大量生産期間に入り、第3四半期以降に大量に配達されると予想されます。しかし、Nvidia Blackwellプラットフォームの発売スケジュールは、スケジュールより少なくとも1〜2四半期前にあり、これはエンド顧客がH200を購入する意欲に影響します。

サプライチェーンは、現在、貨物を待っているクライアントの注文は、H100のHGXアーキテクチャにまだ主に集中しており、H200の割合は限られていると指摘しています。Q3では、大量生産および配信されるH200は主にNvidia DGX H200です。B100に関しては、すでに部分的な可視性があり、来年上半期に出荷される予定です。

H100 GPUの反復アップグレード製品として、H200は高度なホッパーアーキテクチャに基づいてHBM3E高帯域幅メモリテクノロジーを初めて採用し、より速いデータ転送速度とより大きなメモリ容量を達成し、特に大規模な言語モデルアプリケーションに大きな利点を示します。NVIDIAがリリースした公式データによると、MetaのLLAMA2などの複雑な大規模な言語モデルを扱う場合、H200はH100と比較して生成AI出力応答速度で45%の最大改善があります。

H200は、AIコンピューティングの分野におけるNVIDIAの別のマイルストーン産物として配置されており、H100の利点を継承するだけでなく、メモリパフォーマンスの大きなブレークスルーを達成します。H200の商用アプリケーションにより、帯域幅の高いメモリの需要が増加し続けると予想され、AIコンピューティングハードウェア業界チェーン全体、特にHBM3E関連のサプライヤーの市場機会の開発がさらに促進されます。

B100 GPUは液体冷却技術を採用します。熱散逸は、チップのパフォーマンスを改善する重要な要因となっています。Nvidia H200 GPUのTDPは700Wですが、B100のTDPはキロワットに近いと保証されていると推定されています。従来の空気冷却は、チップ操作中に熱散逸要件を満たすことができない可能性があり、熱散逸技術は液体冷却に向けて包括的に革新されます。

Nvidia CEOのHuang Renxunは、B100 GPUから始まって、将来のすべての製品の冷却技術が空冷から液体冷却に移行すると述べました。Galaxy Securitiesは、NvidiaのB100GPUはH200の少なくとも2倍のパフォーマンスを持ち、H100の4倍を超えると考えています。チップのパフォーマンスの改善は、一部は高度なプロセスによるものであり、一方で、熱放散はチップのパフォーマンスを改善する重要な要因となっています。NvidiaのH200 GPUのTDPは700Wであり、これは控えめにキロワットに近いと推定されています。従来の空気冷却は、チップ操作中に熱散逸のニーズを満たすことができない可能性があり、熱散逸技術は液体冷却に完全に革新されます。

言語を選択してください

空白スペースをクリックして終了します