CES 2026》摩爾定律重啟:輝達發表Vera Rubin平台,以「極致協同設計」重塑十兆美元算力版圖

半導體

在CES 2026開場演講中,輝達(NVIDIA)執行長黃仁勳再度站在產業轉型的風口浪尖。他指出,電腦產業每隔10至15年便會發生一次重大的平台轉移,而當前人類正處於從傳統運算邁向AI原生架構的核心節點。面對摩爾定律成長放緩的物理限制,輝達正式揭曉了以美國天文學先驅命名的新一代AI平台Vera Rubin,試圖透過軟硬體的「極致協同設計」(Extreme Codesign),在電力與半導體物理的邊界內壓榨出前所未有的算力潛能。

摩爾定律放緩,AI原生架構成新核心

黃仁勳在演講中直言不諱地表示:「摩爾定律的成長已經大幅放緩,電晶體數量的年度增長完全跟不上AI模型每 10 年擴張 10 倍的需求,更無法支撐 Token 生成成本每年激進下滑的產業期待。為了讓產業持續推進,我們別無選擇,必須同時對所有晶片、整個技術堆疊進行全面革新。」

這種「極致協同設計」的具體呈現,是包含六款全新晶片的 Rubin 完整平台:Vera CPU、Rubin GPU、NVLink 6 交換器、ConnectX-9 SuperNIC、BlueField-4 DPU 以及 Spectrum-6 乙太網路交換器。這六款元件並非獨立運作,而是透過高度整合的架構實現效能飛躍。

例如,新款Vera CPU專為代理型推理(Agentic Inference)設計,其單執行緒效能與記憶體容量均大幅成長,且每瓦效能是當前先進CPU的兩倍;而Rubin GPU則導入了第三代Transformer引擎與NVFP4 Tensor Core技術,讓算力輸出不再受限於電晶體數量的線性成長。

Vera Rubin平台:六大晶片整合效能飛躍

從財務與運算效率的角度分析,Rubin平台的問世將為企業帶來革命性的成本優化。與前代Blackwell平台相比,Rubin能將推論Token的生成成本降低達 10 倍。在訓練端,過去需要龐大算力的混合專家模型(MoE),現在僅需四分之一的GPU數量即可達成相同的訓練效果。

黃仁勳強調,這場革命的背後是全球高達10兆美元的運算基礎設施正處於現代化的轉捩點。每年數千億美元的創投資金與企業研發預算,正在從傳統編寫程式的方法,全面轉向訓練AI的新範式。他向台下數千名聽眾表示:「Rubin的問世恰逢其時,因為AI運算對訓練與推論的需求正呈現爆炸性成長。」

此一願景迅速獲得全球科技巨頭的背書。微軟(Microsoft)已確認其新一代FairwaterAI超級工廠將採用Vera Rubin NVL72機架級系統,規模預計擴充至數十萬個超級晶片。微軟執行長 Satya Nadella對此指出,透過Vera Rubin的加入,將賦予開發人員與組織以全新方式進行創作、推理與擴展。OpenAI執行長Sam Altman也對此硬體突破表示讚許,認為智慧會隨運算能力擴展,而Rubin平台將協助推進解決人類最棘手的問題。

輝達的企圖,製造整個全端AI系統

除了純粹的性能指標,輝達也展示了對數據中心永續經營與ESG議題的回應。Vera Rubin 系統強調極致的能源效率,透過45度的熱水液冷技術,數據中心無需額外配置冷卻機即可穩定運作,這項創新預計能為全球數據中心節省約 6% 的電力損耗。

「這就是今日的NVIDIA,我們不僅製造晶片,我們製造的是整個全端AI系統。」黃仁勳在演講尾聲總結道。隨着Vera Rubin平台於2026年下半年正式出貨,這場以極致協同設計為核心的運算革命,將正式定義AI下一個前沿的經濟法則。

back to top
navbar logo