微軟(Microsoft)今天27日發表第2代自行研發的人工智慧(AI)晶片 Maia 200,同時還提供一套軟體工具,目的在挑戰輝達在開發者圈內最大的競爭優勢之一,Maia 200的晶片採用台積電3奈米製程打造。
《路透社》報導,微軟表示,新款Maia 200晶片本週已在愛荷華州一處資料中心上線,並計劃在亞利桑那州的第2個據點投入使用。這是微軟2023年發表Maia AI晶片以來的第2代產品。
微軟的Maia 200晶片,採用台積電3奈米製程
微軟,表示它特別針對推理(Reasoning)任務以及基於「思維鏈(Chain of Thought)」的模型進行了設計。調其垂直整合的優勢,使得 Maia 200 的成本比目前市面上任何其他 AI 晶片都要便宜 30%。目標是提供市場上最佳的「每瓦、每美元所能產出的 Token 數量。」
如同輝達(Nvidia)本月初發表的下一代旗艦Vera Rubin晶片,微軟的Maia 200晶片也是由台積電以3奈米製程生產,並將採用高頻寬記憶體,不過與輝達即將問世的晶片相比,所用的記憶體屬於較舊且速度較慢的一代。
新一代Maia200,效能比Maia100高3倍
隨著微軟聊天機器人和copilot擴展到數百萬用戶,模型必須不間斷執行,隨時都有用戶提出需求。因此與早期專注於訓練的硬件推動不同, Maia 200的目標是推理,即為用戶提供人工智慧響應的連續過程。推理已成為人工智慧公司日益增長的支出。

Maia 200 專為推理規模而設計,以 Microsoft 於 2023 年推出的 Maia 100 為基礎。新版本實現了重大性能飛躍。微軟表示,該晶片封裝了超過 1000 億個電晶體,能夠以 4 位精度產生超過 10千萬億次浮點運算(petaflops)的計算能力。在 8 位精度下,它達到大約每秒5 千萬億次(petaflops)。這些數字針對的是現實世界的工作負載,而不是訓練基準。
Maia可達但10千萬億次浮點運算,並專為水冷散熱設計
微軟表示,單個 Maia 200 節點(token)可以運行當今最大的人工智慧模型,同時為未來的增長留下空間。該晶片的設計反映了現代人工智慧服務的運作方式,即使用戶流量激增,聊天機器人也必須快速回應,為了滿足這一需求為了,該晶片配備了海量的 HBM,讓大型語言模型能極度靠近運算核心執行。透過減少數據搬移的延遲,進一步提升了運算的吞吐量。
不同於傳統的氣冷數據中心,Maia 專為水冷散熱設計。這種高效率的冷卻方式不僅能支撐高強度的運算,還能達成零水資源浪費,對環境與社區更加友善。
微軟方面表示,除了新款Maia晶片之外,還將提供一套軟體工具包,供開發者進行程式設計。其中包括Triton開放原始碼軟體,由聊天機器人ChatGPT開發者OpenAI大力貢獻,能執行與輝達軟體Cuda相同的任務。許多華爾街分析師認為,Cuda是輝達最大的競爭優勢之一。