CESで5年ぶりにコンシューマー向けグラフィックスカードを発表しなかったNVIDIAのCEOジェンセン・ファンは、別の目標に集中している。それは、次世代AIモデルのトレーニング速度を加速させるために設計された2.5トンのサーバーAIシステム「ヴェラ・ルービン」プラットフォームの紹介だ。これは単なるハードウェア製品ではなく、企業のAIインフラ構築と展開の方法を変革する包括的な戦略である。ジェンセン・ファンは48時間の間に3つのイベントに登場し、NVIDIA Liveから産業用AIに関するシーメンスとの協業、そしてレノボのTechWorld会議へと続いた。彼のメッセージの核心は、過去10年間に投資された約10兆ドルの計算資源を全面的に現代化する必要性だ。## Vera Rubin - Blackwellを凌駕する6チップ統合アーキテクチャVera Rubinは、NVIDIAの内部ルールを打ち破るものである。従来は世代ごとに1〜2種類のチップを変更していたが、今回は6種類の異なるチップを同時に設計し、量産段階に入った。これは、従来の性能向上手法が、Mooreの法則が鈍化する中でAIモデルの年10倍の成長速度に追いつかなくなったためだ。NVIDIAの選択は「極限の協調設計」だ。チップとプラットフォーム全体のあらゆるレベルで革新を同時に行う。Vera CPUは、カスタムの88コアオリンパスと176スレッドを統合し、1.5TBのシステムメモリと1.2TB/sのLPDDR5Xバンド幅をサポート—これはGrace世代の3倍の性能だ。Rubin GPUは、50PFLOPSの推論能力(Blackwellの5倍)を持ち、3360億トランジスタを搭載。第3世代のTransformerエンジンを内蔵し、動的に精度を調整できる。これらの要素をつなぐために、NVIDIAはConnectX-9(800Gbpsのネットワークカード)、BlueField-4 DPU(AIストレージ用エンドポイント処理)、NVLink-6スイッチチップ(18ノード接続、最大72GPUを一体化)、Ethernet Spectrum-6スイッチチップ(512チャネル、各200Gbps)を展開している。## 圧倒的な性能向上:トレーニングから推論までVera Rubin NVL72システムは、驚異的な数値を叩き出す。NVFP4推論では3.6EFLOPSの性能を実現し、Blackwellの5倍に達する。トレーニング性能は2.5EFLOPSで、3.5倍の向上だ。LPDDR5Xメモリは54TBに拡大(3倍)、HBMは20.7TB、HBM4のバンド幅は1.6PB/s(2.8倍)に達している。特に、性能の飛躍的向上にもかかわらず、トランジスタ数は1.7倍(220兆)にとどまり、NVIDIAの半導体技術の最適化能力を示している。100兆パラメータのモデルを訓練するのに、Vera RubinはBlackwellの4分の1のシステム数とコストで済む。トークン生成コストも1/10に抑えられる。最も重要なのは、スループット(1ワット・1ドルあたりのAIトークン数)がBlackwellの10倍に向上したことだ。50億ドル規模のデータセンターでは、収益創出能力が倍増し、投資1ドルあたりの価値も倍になる。## 43本のケーブルから0本へ:外部技術の革新Vera Rubinは、技術設計にも革新をもたらした。従来は各スーパーコンピュータノードに43本のケーブルを接続し、組み立てに2時間かかり、誤配線も多かった。今やVera Rubinのノードはケーブル不要で、液冷パイプ6本だけを使い、組み立てはわずか5分で完了する。サーバーの背面には約3.2kmの銅線と、NVLinkのメインネットワークを形成する5000本の銅線ケーブルが張り巡らされている。ジェンセン・ファンは冗談交じりにこう述べる。「重さは数百キロもあるだろう。これを扱えるのは、相当体力のあるCEOだけだ。」## 無限のKVキャッシュ:コンテキストメモリの制約を超えてAIの大きな課題の一つは、長い会話中に「KVキャッシュ」(キー・バリューのメモリ)がHBMを圧迫し、処理能力を低下させることだ。Vera Rubinは、サーバーの価格にBlueField-4を導入し、KVキャッシュを個別に管理する解決策を採用した。各ノードには4つのBlueField-4を搭載し、それぞれに150TBのコンテキストメモリを追加。GPUには16TBのメモリを割り当て、従来の1TBに比べて大幅に拡張している。重要なのは、帯域幅は200Gbpsを維持し、データ伝送速度は落ちていないことだ。## Spectrum-X:AI専用ネットワークで50億ドルを節約複数のサーバーラックとGPUを連携させ、まるで一つの巨大なメモリのように動作させるには、高速かつ安定したネットワークが必要だ。Spectrum-Xは、TSMCのCOOPプロセスとシリコンフォトニクス技術を用いた、世界初の「AI専用Ethernetネットワークプラットフォーム」だ。512チャネル×200Gbpsの通信速度を実現している。ジェンセン・ファンは計算する。「50億ドルのデータセンターにおいて、Spectrum-Xはスループットを25%向上させ、5億ドル相当のコスト削減になる。ほぼ『無料』のシステムだと言えるだろう。」## セキュリティとプライバシー:通信中も全データ暗号化Vera Rubinは、Confidential Computingをサポートし、通信、保存、計算のすべての段階でデータを暗号化する。PCIe、NVLink、CPU-GPU間通信、各種バスも対象だ。企業は外部システムにモデルを展開しても、データ漏洩の心配なく安全に運用できる。## 物理AI:ロボティクスから自動運転まで、現実世界に焦点ジェンセン・ファンは、「3コアコンピュータ」アーキテクチャを強調した。GPUを用いた訓練用コンピュータ、ロボットや自動車に搭載される推論用「小脳」コンピュータ、そしてOmniverseやCosmosを用いた仮想環境のシミュレーション用コンピュータだ。このアーキテクチャを基盤に、NVIDIAは自動運転の最初の思考・推論能力を持つモデル「Alpamayo」を発表した。従来の自動運転はルールに従うだけだったが、Alpamayoは「エンドツーエンド」の訓練システムで、「長い尾」の問題に対応できる。複雑な交通状況に直面しても、単なる命令実行ではなく、人間の運転手のように推論しながら行動する。メルセデス・ベンツのCLAに搭載され、米国で今季度に正式発表される予定だ。安全性評価のNCAPは、「世界一安全な車」と認定している。これは、AIのエンドツーエンドモデルが十分な自信を持てない場合、従来の安全モードに即座に切り替わる仕組みのおかげだ。ステージ上で、ジェンセン・ファンは人型ロボットや四足歩行ロボット(Boston DynamicsやAgility)を登場させ、デモを行った。彼は、「最大のロボットは工場そのものだ」と強調した。すべてのロボットにはJetsonミニコンピュータが搭載され、OmniverseのIsaac Simulatorで訓練される。NVIDIAはこの技術を、SynopsysやCadence、Siemensなどの産業エコシステムにも展開している。## オープンソースモデル:NVIDIAの戦略的選択ジェンセン・ファンは、オープンソースコミュニティを高く評価した。昨年のDeepSeek V1のブレークスルーは、業界全体の発展を促進したと語る。スライドには、Kimi K2やDeepSeek V3.2といったオープンソースモデルがトップの座を争っている様子が示されている。オープンソースモデルは、最先端の商用モデルに比べて6ヶ月遅れだが、新たなモデルは毎半年ごとに登場し、そのサイクルはスタートアップから大手企業、研究者まで誰もが見逃せないものとなっている。NVIDIAも例外ではない。彼らは「ツール」や「グラフィックスカード」だけを売るのではなく、DGXクラウドのスーパーコンピュータや、タンパク質合成の「La Proteina」、オープンフォールド3などの先進モデルも開発している。NVIDIAのオープンソースエコシステムは、バイオ、物理、エージェント、ロボット、自動運転など多岐にわたる。また、NVIDIAのNemotronシリーズのオープンソースモデルも注目だ。音声、多モーダル、生成と安全性の強化を目的としたこれらのモデルは、多くのランキングで高評価を獲得し、多くの企業に採用されている。## 未来展望:仮想世界から現実世界へかつてNVIDIAは仮想世界向けのチップを作っていたが、今やジェンセン・ファンは明確に物理世界のAIに注力している。自動運転やロボット型人間を代表例とし、現実の世界での競争に挑む。AIバブルの議論が続く中、計算資源の不足を解消するためにヴェラ・ルービンプラットフォームを導入し、ソフトウェアや応用にも多額の投資を行っている。目標は、AIがどのように直感的に変化していくかを明示することだ。自動運転の安全性向上や、推論可能なロボットの実現を通じて、最終的には現実世界の戦いに勝つための武器を整えている。
ジェンセン・黄はCES 2026でVera Rubinを発表:新しいAI計算プラットフォームが業界に画期的な転換をもたらす
CESで5年ぶりにコンシューマー向けグラフィックスカードを発表しなかったNVIDIAのCEOジェンセン・ファンは、別の目標に集中している。それは、次世代AIモデルのトレーニング速度を加速させるために設計された2.5トンのサーバーAIシステム「ヴェラ・ルービン」プラットフォームの紹介だ。これは単なるハードウェア製品ではなく、企業のAIインフラ構築と展開の方法を変革する包括的な戦略である。
ジェンセン・ファンは48時間の間に3つのイベントに登場し、NVIDIA Liveから産業用AIに関するシーメンスとの協業、そしてレノボのTechWorld会議へと続いた。彼のメッセージの核心は、過去10年間に投資された約10兆ドルの計算資源を全面的に現代化する必要性だ。
Vera Rubin - Blackwellを凌駕する6チップ統合アーキテクチャ
Vera Rubinは、NVIDIAの内部ルールを打ち破るものである。従来は世代ごとに1〜2種類のチップを変更していたが、今回は6種類の異なるチップを同時に設計し、量産段階に入った。これは、従来の性能向上手法が、Mooreの法則が鈍化する中でAIモデルの年10倍の成長速度に追いつかなくなったためだ。
NVIDIAの選択は「極限の協調設計」だ。チップとプラットフォーム全体のあらゆるレベルで革新を同時に行う。Vera CPUは、カスタムの88コアオリンパスと176スレッドを統合し、1.5TBのシステムメモリと1.2TB/sのLPDDR5Xバンド幅をサポート—これはGrace世代の3倍の性能だ。Rubin GPUは、50PFLOPSの推論能力(Blackwellの5倍)を持ち、3360億トランジスタを搭載。第3世代のTransformerエンジンを内蔵し、動的に精度を調整できる。
これらの要素をつなぐために、NVIDIAはConnectX-9(800Gbpsのネットワークカード)、BlueField-4 DPU(AIストレージ用エンドポイント処理)、NVLink-6スイッチチップ(18ノード接続、最大72GPUを一体化)、Ethernet Spectrum-6スイッチチップ(512チャネル、各200Gbps)を展開している。
圧倒的な性能向上:トレーニングから推論まで
Vera Rubin NVL72システムは、驚異的な数値を叩き出す。NVFP4推論では3.6EFLOPSの性能を実現し、Blackwellの5倍に達する。トレーニング性能は2.5EFLOPSで、3.5倍の向上だ。LPDDR5Xメモリは54TBに拡大(3倍)、HBMは20.7TB、HBM4のバンド幅は1.6PB/s(2.8倍)に達している。
特に、性能の飛躍的向上にもかかわらず、トランジスタ数は1.7倍(220兆)にとどまり、NVIDIAの半導体技術の最適化能力を示している。100兆パラメータのモデルを訓練するのに、Vera RubinはBlackwellの4分の1のシステム数とコストで済む。トークン生成コストも1/10に抑えられる。
最も重要なのは、スループット(1ワット・1ドルあたりのAIトークン数)がBlackwellの10倍に向上したことだ。50億ドル規模のデータセンターでは、収益創出能力が倍増し、投資1ドルあたりの価値も倍になる。
43本のケーブルから0本へ:外部技術の革新
Vera Rubinは、技術設計にも革新をもたらした。従来は各スーパーコンピュータノードに43本のケーブルを接続し、組み立てに2時間かかり、誤配線も多かった。今やVera Rubinのノードはケーブル不要で、液冷パイプ6本だけを使い、組み立てはわずか5分で完了する。
サーバーの背面には約3.2kmの銅線と、NVLinkのメインネットワークを形成する5000本の銅線ケーブルが張り巡らされている。ジェンセン・ファンは冗談交じりにこう述べる。「重さは数百キロもあるだろう。これを扱えるのは、相当体力のあるCEOだけだ。」
無限のKVキャッシュ:コンテキストメモリの制約を超えて
AIの大きな課題の一つは、長い会話中に「KVキャッシュ」(キー・バリューのメモリ)がHBMを圧迫し、処理能力を低下させることだ。Vera Rubinは、サーバーの価格にBlueField-4を導入し、KVキャッシュを個別に管理する解決策を採用した。
各ノードには4つのBlueField-4を搭載し、それぞれに150TBのコンテキストメモリを追加。GPUには16TBのメモリを割り当て、従来の1TBに比べて大幅に拡張している。重要なのは、帯域幅は200Gbpsを維持し、データ伝送速度は落ちていないことだ。
Spectrum-X:AI専用ネットワークで50億ドルを節約
複数のサーバーラックとGPUを連携させ、まるで一つの巨大なメモリのように動作させるには、高速かつ安定したネットワークが必要だ。Spectrum-Xは、TSMCのCOOPプロセスとシリコンフォトニクス技術を用いた、世界初の「AI専用Ethernetネットワークプラットフォーム」だ。512チャネル×200Gbpsの通信速度を実現している。
ジェンセン・ファンは計算する。「50億ドルのデータセンターにおいて、Spectrum-Xはスループットを25%向上させ、5億ドル相当のコスト削減になる。ほぼ『無料』のシステムだと言えるだろう。」
セキュリティとプライバシー:通信中も全データ暗号化
Vera Rubinは、Confidential Computingをサポートし、通信、保存、計算のすべての段階でデータを暗号化する。PCIe、NVLink、CPU-GPU間通信、各種バスも対象だ。企業は外部システムにモデルを展開しても、データ漏洩の心配なく安全に運用できる。
物理AI:ロボティクスから自動運転まで、現実世界に焦点
ジェンセン・ファンは、「3コアコンピュータ」アーキテクチャを強調した。GPUを用いた訓練用コンピュータ、ロボットや自動車に搭載される推論用「小脳」コンピュータ、そしてOmniverseやCosmosを用いた仮想環境のシミュレーション用コンピュータだ。
このアーキテクチャを基盤に、NVIDIAは自動運転の最初の思考・推論能力を持つモデル「Alpamayo」を発表した。従来の自動運転はルールに従うだけだったが、Alpamayoは「エンドツーエンド」の訓練システムで、「長い尾」の問題に対応できる。複雑な交通状況に直面しても、単なる命令実行ではなく、人間の運転手のように推論しながら行動する。
メルセデス・ベンツのCLAに搭載され、米国で今季度に正式発表される予定だ。安全性評価のNCAPは、「世界一安全な車」と認定している。これは、AIのエンドツーエンドモデルが十分な自信を持てない場合、従来の安全モードに即座に切り替わる仕組みのおかげだ。
ステージ上で、ジェンセン・ファンは人型ロボットや四足歩行ロボット(Boston DynamicsやAgility)を登場させ、デモを行った。彼は、「最大のロボットは工場そのものだ」と強調した。すべてのロボットにはJetsonミニコンピュータが搭載され、OmniverseのIsaac Simulatorで訓練される。NVIDIAはこの技術を、SynopsysやCadence、Siemensなどの産業エコシステムにも展開している。
オープンソースモデル:NVIDIAの戦略的選択
ジェンセン・ファンは、オープンソースコミュニティを高く評価した。昨年のDeepSeek V1のブレークスルーは、業界全体の発展を促進したと語る。スライドには、Kimi K2やDeepSeek V3.2といったオープンソースモデルがトップの座を争っている様子が示されている。
オープンソースモデルは、最先端の商用モデルに比べて6ヶ月遅れだが、新たなモデルは毎半年ごとに登場し、そのサイクルはスタートアップから大手企業、研究者まで誰もが見逃せないものとなっている。NVIDIAも例外ではない。
彼らは「ツール」や「グラフィックスカード」だけを売るのではなく、DGXクラウドのスーパーコンピュータや、タンパク質合成の「La Proteina」、オープンフォールド3などの先進モデルも開発している。NVIDIAのオープンソースエコシステムは、バイオ、物理、エージェント、ロボット、自動運転など多岐にわたる。
また、NVIDIAのNemotronシリーズのオープンソースモデルも注目だ。音声、多モーダル、生成と安全性の強化を目的としたこれらのモデルは、多くのランキングで高評価を獲得し、多くの企業に採用されている。
未来展望:仮想世界から現実世界へ
かつてNVIDIAは仮想世界向けのチップを作っていたが、今やジェンセン・ファンは明確に物理世界のAIに注力している。自動運転やロボット型人間を代表例とし、現実の世界での競争に挑む。
AIバブルの議論が続く中、計算資源の不足を解消するためにヴェラ・ルービンプラットフォームを導入し、ソフトウェアや応用にも多額の投資を行っている。目標は、AIがどのように直感的に変化していくかを明示することだ。自動運転の安全性向上や、推論可能なロボットの実現を通じて、最終的には現実世界の戦いに勝つための武器を整えている。