NVIDIA Vera Rubinスーパーチップの詳細を発表:次世代AIの心臓部
テクノロジー NVIDIA Vera Rubinスーパーチップの詳細を発表:次世代AIの心臓部 投稿者: Y Kobayashi投稿日時:2025年10月29日6:43
2025年10月に開催されたGTCワシントンにおいて、NVIDIAのCEO Jensen Huang氏は次世代AIインフラストラクチャの核心を担う「Vera Rubin Superchip」の実物サンプルを初めて公開した。現在市場展開が進むBlackwellアーキテクチャの後継として位置づけられるこのプラットフォームは、新設計の「Vera」CPUと2基の強力な「Rubin」GPUを単一基板上に統合する。2026年後半の量産開始を目指すこのスーパーチップは、メモリ帯域、演算性能、そしてシステム全体のスケーラビリティにおいて、現行世代を大幅に凌駕するスペックを提示しており、AIコンピューティングの新たな地平を切り拓く技術的基盤となることが期待される。
スポンサーリンクBlackwell世代の展開中に明かされた次世代アーキテクチャ
GTCでの発表が特に注目されたのは、Blackwellプラットフォーム、特にGB300スーパーチップの市場投入が本格化している最中に行われた点にある。これは、NVIDIAがAIインフラ市場における技術的リーダーシップを維持し、競合他社に対する優位性を盤石にするための明確な戦略的意図の表れと見て取れる。顧客である大手クラウドサービスプロバイダーや研究機関に対し、1年周期という驚異的なケイデンスで性能向上を実現するロードマップを具体的に示すことで、将来の設備投資計画におけるNVIDIAプラットフォームの採用を促す強力なメッセージとなる。
フアン氏が壇上で示したマザーボードサイズのプロトタイプは、単なるコンセプトではなく、すでにTSMCで製造され、NVIDIAのラボで評価が開始されている初期サンプルである。これは、2026年第3四半期から第4四半期にかけての量産計画が、具体的なマイルストーンに基づいた現実的な目標であることを示唆している。
スポンサーリンクVera Rubin Superchipのアーキテクチャ分析
Vera Rubin Superchipの設計思想は、計算、メモリ、ネットワークの各要素を極限まで高密度に統合し、AIワークロードにおけるボトルネックを根本から解消することにある。その核心は、Vera CPUとRubin GPUの異種コンピューティング協調、そして革新的なメモリ階層にある。
異種コンピューティングの集積:Vera CPUとRubin GPUの協調動作Vera Rubin Superchipは、Grace Hopperスーパーチップで確立されたCPU+GPU統合のコンセプトをさらに推し進めたものである。
- Vera CPU: 88コア176スレッドのArmベースCPUを搭載。このCPUの役割は、単にOSや管理タスクを実行するに留まらない。GPUが演算に専念できるよう、データの前処理、通信ライブラリの制御、そして巨大なデータセットの効率的なステージング(GPUへのデータ供給)を担う、高度な「コンピュート・コンダクター」として機能すると推察される。GPUとの間は1.8 TB/sという広帯域のNVLINK-C2Cインターコネクトで接続されており、物理的に分離されたプロセッサでありながら、共有メモリ空間のように振る舞うことが可能となる。
- Rubin GPU (x2): 1つのスーパーチップに2基のRubin GPUを搭載する構成は、モデル並列処理やパイプライン並列処理といった、超大規模モデルの学習・推論を最適化するためのアーキテクチャ的選択である。2基のGPUがNVLINK-C2Cを介して緊密に連携することで、単一の巨大な仮想GPUとして振る舞い、開発者がモデルを分割する際の複雑性を低減する効果が期待される。
このCPUとデュアルGPUの緊密な統合は、AIモデルの学習・推論パイプライン全体をスーパーチップ内で完結させ、外部へのデータ移動を最小限に抑えることで、レイテンシの削減とエネルギー効率の劇的な向上を実現する設計思想が見て取れる。
メモリ階層の革新:HBM4とLPDDRのハイブリッド構成現代のAIモデルにおける最大のボトルネックは、演算性能そのものよりも、プロセッサにデータを供給するメモリ帯域幅である。Vera Rubinは、この課題に対して多層的なアプローチで応えている。
- HBM4 (High Bandwidth Memory 4): 各Rubin GPUは、次世代規格であるHBM4メモリを搭載する。1基のRubin GPUあたり288 GBの容量を持ち、システム全体(NVL144構成)では13 TB/sという驚異的なメモリ帯域を実現する。これは、数十兆パラメータ級のモデルであっても、その重みをGPUの近傍に配置し、高速なアクセスを可能にすることを意味する。
- LPDDRシステムメモリ: スーパーチップ基板上には、GPUに直接接続されたHBM4とは別に、Vera CPUに接続されるLPDDRメモリが多数実装されている(公開された基板からは32のメモリサイトが確認できる)。これは、HBMの容量には収まりきらない巨大なコンテキストを持つ言語モデルの推論や、グラフニューラルネットワーク、科学技術計算シミュレーションなど、大規模なワーキングセットを必要とするアプリケーションに対応するための「高速システムメモリ」層として機能する。GTCで言及された「より大きなコンテキストのためのCPXコンピュートトレイ」は、この大容量LPDDRメモリを活用する構成の一つと考えられる。
このHBM4とLPDDRのハイブリッド構成は、データの種類とアクセス頻度に応じて最適なメモリ階層にデータを配置することで、性能とコスト、電力効率のバランスを取るという、洗練されたメモリアーキテクチャである。
Rubin GPUの内部構造:マルチダイとFP4性能の真価Rubin GPU自体のアーキテクチャも、製造技術の限界を克服し、性能をスケールさせるための工夫が凝らされている。
- マルチダイ構成: 1つのRubin GPUパッケージは、「2つのレティクルサイズダイ」で構成される。レティクルサイズとは、半導体露光装置(ステッパー)が一度に描画できる最大面積であり、単一の巨大なチップを製造する際の歩留まり低下という物理的制約を回避するためのチップレット技術の一環である。NVIDIAは、これらのダイを高速なインターコネクトで接続し、ソフトウェアからは単一のGPUに見えるように抽象化する技術に長けており、Rubin世代でその集大成を見せている。
- FP4演算性能の追求: 1基のRubin GPUは最大50 PFLOPS(ペタフロップス)のFP4演算性能を持つと公表されている。FP4とは4ビット浮動小数点数演算を指し、主に推論処理で利用される量子化技術である。性能指標としてFP4を前面に押し出すことは、NVIDIAが学習(FP8/FP16)だけでなく、推論のスループットと電力効率を最重要視していることの証左である。大規模言語モデルのサービス展開コストが課題となる中、FP4のハードウェアレベルでの強力なサポートは、AIサービスの経済性を大きく左右する重要な要素となる。
単一のスーパーチップの性能向上に加え、Vera Rubinプラットフォームは大規模クラスタ構築を前提としたインターコネクト技術の進化も特徴としている。NVL144システムでは、現行のGB300 NVL72システムと比較して、NVLINKとCX9(ネットワークインターフェース)のスループットがそれぞれ2倍の260 TB/sと28.8 TB/sに向上する。これは、数万基のGPUを相互接続した際に発生する通信のボトルネックを解消し、システム全体が一体となって巨大な計算問題を解くための、極めて重要な性能向上である。
スポンサーリンク定量的パフォーマンス分析:NVL144からRubin Ultra NVL576へ
NVIDIAは、Vera Rubinプラットフォームの具体的なシステム構成と性能目標を明らかにしている。
項目GB300 NVL72 (Blackwell)NVL144 (Rubin)NVL144 vs GB300NVL576 (Rubin Ultra)NVL576 vs GB300リリース時期2024年2026年後半–2027年後半–FP4 推論性能~1.1 Exaflops3.6 Exaflops~3.3倍15 Exaflops~14倍FP8 学習性能~0.36 Exaflops1.2 Exaflops~3.3倍5 Exaflops~14倍HBM帯域8.1 TB/s13 TB/s~1.6倍4.6 PB/s~568倍 ※構成が異なる高速メモリ容量46.8 TB75 TB~1.6倍365 TB~7.8倍NVLINK帯域130 TB/s260 TB/s2倍1.5 PB/s~11.5倍CX9 ネットワーク帯域14.4 TB/s28.8 TB/s2倍115.2 TB/s8倍この表から読み取れるのは、単純な演算性能(FLOPS)だけでなく、それを支えるメモリ帯域、容量、そしてシステム間を接続するネットワーク帯域がバランス良く、かつ指数関数的にスケールアップされている点である。特に2027年後半に計画されているRubin Ultra NVL576は、FP4性能で15 Exaflopsという、まさに次世代の計算領域に踏み込む性能目標を掲げている。これは、創薬、気候変動モデリング、核融合シミュレーションといった、これまで計算不可能とされてきた領域の研究を加速させるポテンシャルを秘めている。
市場への影響と将来展望
Vera Rubinプラットフォームの発表は、AIインフラ市場全体に大きな影響を与える。
- スーパーコンピュータへの採用: 発表と時を同じくして、ロスアラモス国立研究所がHPEと共同でVera Rubinを基盤としたスーパーコンピュータ「Mission」および「Vision」を構築することが明らかになった。これは、国家安全保障や最先端の科学研究といったミッションクリティカルな領域で、いち早く次世代アーキテクチャが採用されることを意味し、プラットフォームの信頼性と性能を裏付けるものとなる。
- AIと科学技術計算の融合: Vera Rubinのアーキテクチャは、AIモデルの学習・推論だけでなく、伝統的な倍精度浮動小数点数演算を多用する科学技術計算(HPC)も視野に入れた設計となっている。これにより、AIを用いたシミュレーション結果の解析や、シミュレーション自体の高速化といった、AIとHPCの融合がさらに加速することが予想される。
- ロードマップの先へ: NVIDIAはロードマップのさらに先、2027年から2028年にかけてFeynmannアーキテクチャの投入を計画していることを示唆している。この relentless(執拗な)なまでの技術革新のペースは、AIインフラにおけるNVIDIAのエコシステムをさらに強固なものにし、ソフトウェア(CUDA、cuDNNなど)とハードウェアが一体となった開発環境の優位性を維持する戦略の一環である。
Vera Rubin Superchipは、単なる性能向上版ではなく、AIとコンピューティングの未来を見据えたアーキテクチャの再定義である。その登場は、より複雑で巨大なAIモデルの開発を可能にし、科学と産業のあらゆる分野で、我々の問題解決能力を新たな次元へと引き上げるだろう。
Sources
- NVIDIA: GTC October 2025 Keynote with NVIDIA CEO Jensen Huang
Follow Me !
\ この記事が気に入ったら是非フォローを! /
フォローするY Kobayashi
XenoSpectrum管理人。中学生の時にWindows95を使っていたくらいの年齢。大学では物理を専攻していたこともあり、物理・宇宙関係の話題が得意だが、テクノロジー関係の話題も大好き。最近は半導体関連に特に興味あり、色々と情報を集めている。2児の父であり、健康や教育の話題も最近は収集中。