在聖荷西 SAP 中心熱騰騰的氣氛中,NVIDIA創辦人暨執行長黃仁勳於今年GTC 2026開場主題演講,向台下爆滿的開發者與投資人拋出了一個震撼市場的預測。他直言,NVIDIA在短短一年多前預估的5,000億美元營收目標已成過去式,放眼2027年,這家AI巨頭的年營收將正式站上1兆美元大關。這份自信並非空穴來風,而是立基於全球資料中心正經歷的一場深刻轉型:從單純的「資料存儲空間」進化為大規模生產智慧的「AI工廠」。
黃仁勳指出,AI 產業已全面進入「推論轉折點」(Inference Inflection)。過去幾年業界聚焦於大規模語言模型的訓練(Training),但隨著ChatGPT、o1以及具備推理能力的agentic AI普及,真正的市場爆發點在於「推論」。他強調,「AI 現在必須思考、必須行動、必須推理,而每一次思考都在生成節點(Tokens),這正是推論轉折點到來的時刻。」。為了應對這股海啸般的運算需求,NVIDIA推出了全新的Vera Rubin平台,並透過與Grok技術的深度整合,徹底改寫了效能天花板。
Vera Rubin平台,七顆核心晶片與五款機架式電腦
Vera Rubin平台代表了NVIDIA垂直整合設計的頂峰。這套系統包含七顆核心晶片與五款機架式電腦,並搭載了第六代的NVLink 72 技術。黃仁勳在現場展示了其極致的製造工藝,新款機架全面採用液冷散熱技術,不再有雜亂的佈線,讓原本需要兩天的安裝時間縮短至僅需兩小時 。然而,硬體能力的上限不僅止於此。黃仁勳宣布NVIDIA已取得Grok處理器技術的授權,旨在解決超低延遲需求的極端案例。
「當你追求的是每秒1,000個節點生成的超高速互動時,即便是NVLink 72也會面臨頻寬瓶頸,」黃仁勳詳細解釋了這項聯手 Grok 的戰略部署,「這就是 Grok 的用武之地。它是一套確定性資料流處理器(Deterministic data flow processor),能在軟體中靜態編排運算任務,實現零延遲的解構式推論(Disaggregated Inference)。」
未來的資料中心就是「節點工廠」,成本更低
透過NVIDIA自研的Dynamo作業系統,Vera Rubin負責處理高吞吐量的預填充(Pre-fill)與大容量記憶體存取,而Grok晶片則專攻超高速的節點解碼生成。這種「雙劍合璧」的架構,讓1GW級別AI工廠的節點生成速度從200萬暴增至7億個,效能躍升達350倍。這場演講也重新定義了資料中心的經濟模型。黃仁勳形容,未來的資料中心就是「節點工廠」,智慧將像商品一樣被大規模生產並分層定價。
他舉例說明,未來的AI服務將分為免費層、中級層(每百萬節點3美元)以及針對高端研究的溢價層(每百萬節點150美元)。黃仁勳預言,每一位工程師與研究員都將擁有一份年度「節點預算」,這將成為矽谷未來最重要的招聘福利。NVIDIA正透過Vera Rubin與Grok的技術紅利,將運算成本持續推低,從而確保在這場價值兆元的AI競賽中始終處於不敗之地。