Home / テクノロジー / AI・アルゴリズム / NVIDIA、AI推論を再定義する「Vera Rubin」プラットフォームと「LPU」を発表

NVIDIA、AI推論を再定義する「Vera Rubin」プラットフォームと「LPU」を発表

AI chip Semiconductor chip - NVIDIA、AI推論を再定義する「Vera Rubin」プラットフォームと「LPU」を発表

NVIDIAがGTC 2026でAIインフラ企業への大規模な転換を発表しました。ジェンスン・フアンCEOは、同社が従来の「チップ企業」から「AIインフラ工場」へと進化を遂げ、2027年までに次世代AIチップの累計売上が1兆ドルを突破する見込みだと明かしました。今回の最大の注目は、AI推論を根本から変革する「Vera Rubin AI工場プラットフォーム」と、新登場の言語処理ユニット(LPU)である「Groq 3 LPU」の発表です。GPUとLPUが連携することで、AIインテリジェントエージェント時代における推論性能と効率が飛躍的に向上します。この革新的な発表は、今後のAI開発の方向性を大きく左右するでしょう。

NVIDIA、AIインフラ企業への大転換を宣言

GTC 2026のステージに、NVIDIAの象徴とも言えるレザージャケット姿で登場したジェンスン・フアンCEOは、NVIDIAが「チップ企業」から「AIインフラ工場」へと全面的な戦略転換を図ると宣言しました。さらに、2027年には次世代AIチップの累計売上が、昨年予測の2倍にあたる驚異の1兆ドル(約150兆円)を突破する見通しを示し、市場に大きなインパクトを与えています。

Vera Rubinプラットフォームの全貌

システム全体としてのAI基盤

今回の発表の核となったのは、「Vera Rubin AI工場プラットフォーム」です。これまでのNVIDIAの発表が単一のチップに焦点が当てられることが多かったのに対し、今回は7種類の最新チップを含む「フルセット」のシステムとして提示されました。フアンCEOは、「以前Hopperについて話すときは可愛いチップを手に持ちましたが、Vera Rubinとなればシステム全体をイメージしてほしい」と、その戦略的な転換を強調しました。

Vera CPUとRubin GPU:AI時代の「脳と心臓」

Vera Rubinプラットフォームの中心的コンポーネントは、AIインテリジェントエージェント時代のために設計されたVera CPURubin GPUです。Vera CPUは、NVIDIAが自社開発した「Olympus」コアを88個搭載し、従来のCPUと比較して性能を50%向上させつつ、エネルギー効率を2倍に高めています。これは、AIシステムの「指揮・調整センター」としての役割を担います。Rubin GPUは、NVLink-C2C技術を通じてVera CPUと1.8TB/sの帯域幅で相互接続され、圧倒的な計算能力を提供します。

さらに、プラットフォームはNVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU、そしてデュアルパッケージ光部品を備えたSpectrum-Xスケーラブルスイッチなど、包括的な超高速相互接続、ネットワーク、データ処理インフラを統合しています。これらのコンポーネントで構築されたVera Rubin NVL72ラックは、Rubin GPU 72基とVera CPU 36基を搭載。前世代のBlackwellプラットフォームと比較して、大規模な混合エキスパートモデルの学習に必要なGPU数を4分の1に削減し、推論スループット/ワットは10倍に向上するという驚異的な性能を発揮します。

AI推論の未来を拓く「LPU」の衝撃

Groq LPU、低遅延AI推論の切り札

今回のGTCで特に注目を集めたのは、戦略的チップであるGroq 3言語処理ユニット(LPU)の登場です。これは、NVIDIAが昨年12月に約200億ドルでGroq社のコア技術資産を買収したことに端を発します。LPUはRubin GPUの「推論副プロセッサ」として位置づけられ、フアンCEOは、AIインテリジェントエージェント時代の多様な推論ニーズに対応するためにLPUを導入したと説明しました。特に、極めて高いインタラクティブ性と超短応答時間が求められるタスクにおいて、従来のGPUでは性能が過剰となることがあり、LPUは「究極の低遅延トークン生成」に特化しています。

LPUの革新的なメモリ技術

Groq 3 LPUの技術的優位性は、その革新的なメモリアーキテクチャにあります。各チップには500MBのオンチップSRAMが統合されており、最大150TB/sという驚異的な帯域幅を実現しています。これは、従来のHBM4(22TB/s)の約7倍に相当します。Rubin GPU上のHBM4と比較して容量は1/500に過ぎませんが、帯域幅に敏感なAIデコード操作においては、LPUの優位性は替えがききません。このチップをベースにしたGroq 3 LPXラックは、LPU 256基を搭載し、合計128GBのオンチップSRAMと640TB/sの総帯域幅を提供します。

GPUとLPUのハイブリッドアーキテクチャ

NVIDIAの大規模計算担当バイスプレジデント、イアン・バック氏は、LPUとGPUの協調動作がAI推論アーキテクチャを再定義すると指摘しています。具体的には、Rubin GPUは大量の計算が必要な「プリフィル(事前入力)」段階を担当し、Groq LPUは遅延に敏感な「デコード」段階を担当します。このハイブリッドアーキテクチャにより、システム全体の推論スループットと電力効率は最大35倍も向上します。フアンCEOは、大量の高価値トークン生成が必要なワークロードの場合、データセンター規模の25%をGroq LPUに割り当てることを企業顧客に推奨しています。

まとめ:日本のAI開発への示唆

NVIDIAのGTC 2026での発表は、AIハードウェアとインフラの未来に対する同社の揺るぎないコミットメントを示しています。特に、Vera RubinプラットフォームとGroq 3 LPUの登場は、AI推論の効率と性能を飛躍的に向上させ、より複雑でインタラクティブなAIアプリケーションの開発を加速させるでしょう。Samsung ElectronicsがGroq 3 LPUチップの生産加速に重要な役割を果たしており、2026年には市場投入される予定です。これらの革新的な技術が日本市場に導入されれば、国内のAI研究者や企業は、かつてない高性能なAIインフラを利用できるようになり、新たなAIサービスの創出や産業のデジタルトランスフォーメーションがさらに加速することが期待されます。NVIDIAが描く「AIインフラ工場」の未来は、私たち全員の生活を大きく変える可能性を秘めています。

元記事: pcd

Photo by Pixabay on Pexels

タグ付け処理あり:

メーリングリストに登録

毎週のニュースレターで最新情報をキャッチアップ。今すぐ登録して、大切な情報を逃さずチェック!

利用規約に同意します

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

AI特集

メーリングリストに登録

毎週のニュースレターで最新情報をキャッチアップ。今すぐ登録して、大切な情報を逃さずチェック!

利用規約に同意します

関連リンク

にほんブログ村 ニュースブログ ITニュースへ