CES 2026開催科技界關注科技巨擘新產品動向,特別是人工智慧(AI)相關領域,其中輝達(Nvidia)的新產品動向堪稱最受矚目,執行長黃仁勳不負眾望稍來新一代處理器已經全面投產的好消息。
1月5日,黃仁勳CES發表演說時表示,在更快、更專業的晶片支持下,AI正進入一個新的發展階段,輝達新產品將協助實現AI願景,在聊天機器人和其他AI應用上,輝達處理器的運算能力是前一代的5倍。《路透》(Reuters)引述輝達主管消息指出,已有多家大型AI企業著手測試新處理器。
6日,黃仁勳開心表示「看來我們要回中國了」,他說公司看到中國客戶對H200晶片的需求非常高,而美國政府最近已表示將批准該晶片出口。
「我們已經啟動供應鏈,H200正在生產線上。」黃仁勳在拉斯維加斯舉行的CES記者會上說。
黃仁勳補充說,輝達已經恢復晶片生產,而且正在與美國政府敲定出口許可證的最終細節。
輝達發布Rubin平台,可組成性能驚人的AI超級電腦
輝達這次在CES發布的核心產品是以美國天文學家魯賓(Vera Rubin)命名的Rubin平台,將是輝達未來一年AI運算策略的基礎。Rubin有6款晶片,採用極致協同設計包含Vera CPU、Rubin GPU、NVLink 6 交換器、ConnectX-9 SuperNIC、BlueField-4 DPU 與 Spectrum-6 乙太網路交換器。
黃仁勳在會場上展示Rubin系統的擴充方式,一台旗艦伺服器估計可放入72顆GPU和36顆CPU,多個伺服器組成一個模組(pod),每個模組最多可容納1000多個Rubin晶片。

黃仁勳表示,即便電晶體數量提高1.6倍,Rubin依然能實現性能大幅提升,因為Rubin晶片中使用一種輝達特有的特殊數據格式,輝達希望這種格式應用於更廣泛的AI產業中。
輝達表示,Rubin可協助提升訓練和運行大規模AI模型的能力,足以整合成一台性能驚人的 AI 超級電腦,大幅縮短 AI 訓練時間和降低推論 Token 生成成本。
輝達發布新的記憶體架構和自動駕駛平台
除了Rubin之外,輝達還發布了其他產品,包括推論應用架構和自動駕駛平台。
輝達在訓練大型模型方面雖然領先群倫,但在推理的部分面臨超微(AMD)和英特爾(Intel)等公司日益激烈的競爭。輝達推出「上下文記憶體儲存」(contex memory storage)的心記憶體架構,可支援聊天機器人,以及其他需進行長時間互動或處理詳細指令的AI,提供更連貫的回應。
另外,黃仁勳也發布為自動駕駛汽車設計的AI模型Alpamayo。他說,Alpamayo 是全球首個能夠思考和推理的自動駕駛汽車平台,具備讓汽車學習駕駛行為的能力,不僅能夠接收感測器輸入並控制方向盤、剎車和油門,還能推理即將採取的行動。Alpamayo已獲汽車業採用,根據《紐約時報》的消息,賓士汽車(Mercedes-Benz)配備輝達這款自動駕駛的車輛將於2026年開始交車。
未來AI產業需要的人才將是技術工
黃仁勳表示,運算產業正經歷一場由AI和其背後的晶片架構掀起的革新,輝達的晶片將是未來運算產業新局的推手。
不過AI產業全面崛起也引發人類將被取代的憂心,不少人因此投入程式設計和AI相關技能的學習。對於此疑慮,黃仁勳認為,未來最熱門的職業未必是寫程式,很可能是技術工人。
黃仁勳指出,隨著全球資料中心需求急速攀升,勞動市場將出現前所未有的缺口,尤其是電工、水管工、木匠等技術類工人。他估計,未來將需要數十萬名技術工人投入資料中心建設,各國經濟體的技術工職缺恐出現爆炸性成長,且需求還會年年倍增。
由此可見,技術工在AI時代不僅不會消失,反而具備更大的成長空間。他們還將與AI與機器人協作,專注於需要高度技巧與現場判斷的工作。
輝達已於2025年9月底宣布,將投入高達1000億美元投資OpenAI,推動大量以輝達處理器為核心的資料中心建設。以一座約7000坪的資料中心為例,施工期間需動員約1500名建築相關工人。