摩根士丹利證券這個月的報告指出,2026年雖然GPU伺服器需求依舊強勁,TPU ASIC伺服器與一般型伺服器亦具備向上潛力。摩根士丹利認為,這股結構性需求將推動雲端半導體的價格調升趨勢延續至2026年。
TrendForce 同時也表示,2026年隨著北美主要雲端服務供應商(CSP)提前布局 AI 運算能力,2026年全球 AI 伺服器出貨量可望較今年成長 20%。值得關注的是,Google 持續擴大 TPU 投入,Meta 也被傳與 Google 討論導入 TPU 的可行性,引發市場關注。
TPU爆紅,更多廠商找上Google談合作
實際上,還有更多廠商、尤其還沒有被輝達的規格綁死的廠商將找上GOOGLE,談各種合作的可能性。TrendForce 提到,Google TPU 屬於 AI 專用的 ASIC(訂製晶片),在矩陣運算能力上較通用 GPU 更具效率。Meta 若擴大採用 TPU,對其主要供應商輝達將造成直接衝擊。
有法人分析,GPU最初設計用來輔助CPU,特別是在影像、影片及模擬等重度運算上加強效能。TPU 屬於一種 ASIC,並非能處理所有任務的通用型晶片,而是針對單一用途量身打造。軟體層面的主要差異在於TPU運算核心靜態矩陣陣列已經編排好的資料流、排成以及設定好的kernel等等,與GPU能在執行時啟動硬體核心不同。
這種說法,顯然低估TPU的潛力,尤其評論「TPU 屬於一種 ASIC,並非能處理所有任務的通用型晶片」但實際上,處理大語言模型已經綽綽有餘,效能甚至更好。第二種盲點,有法人分析,「必須擁有與 Google 同等級的頂尖工程團隊,才能掌握此系統。」似乎暗示其他巨型軟體業者,沒辦法掌握該系統,而GOOGLE的人才,永遠只會留在GOOGLE。
TPU讓OCS需求更大,是GOOGLE的第二個秘密武器
但不論如何,其TPU伺服器需要用的光交換器(Optical Circuit Switch, OCS)開始被外界重視,被曲博科技教室稱為『GOOGLE 自TPU後第二個秘密武器』。
AI資料中心所面對的,是當數據量大到 AI 等級,所有流量都要經過交換晶片,在晶片內處理光、電轉換過程,晶片功耗大到不合理,交換設備將面臨沒效率、過熱的問題,OCS以光路直接接光路,而不是更快的交換機、也不是新型光模組,而突破原來的限制。
一個TPU tray有4個TPU,一個Rack(機架)有64個TPU,Google在Rack的TPU 之間串聯採用3D架構,每個面上16個TPU透過光纖與櫃外的OCS連接,因此推算明年Google會需要超過1萬台的OCS交換器。目前全球OCS龍頭是位於美國加州聖荷西、由光通訊巨頭 JDSU 分拆出來的Lumentum,而OCS不會取代矽光子CPO,兩者是互補的。
法人分析指出,台積電仍是AI晶片下單的首選
2026年GOOGLE的TPUv7機櫃上線,呈現左右對稱的格局,各有8層的TPU機架與8層的 CPU 機架,Google 此世代的機櫃最多可以用光學電路交換OCS串聯 144 台機櫃,總共 9216 顆 TPU 同步運算。
根據國內前三大券商之一的某券商分析指出,根據該券商的 CoWoS模型,2026年TPU總產量估計310萬至320萬顆,台積電將為Broadcom及聯發科提供更多產能支援。據了解顯示2027年TPU總出貨量可能倍增至500萬至600萬顆,其中Broadcom約500萬顆,聯發科潛在達100萬顆。
2026年, TPU,或者其他ASIC能撼動GPU的地位嗎?TrendForce 評論,儘管專家們普遍認為,短期內 ASIC 難以撼動輝達憑藉 CUDA 生態系所建立的壟斷地位,但市場結構正在出現變化,尤其是明年ASIC的成長率和GPU相比,2026年將出現黃金交叉。TrendForce預測,2026 年 ASIC 市場成長率將達 44.6%,大幅超越 GPU 的 16.1%。