台達電董事長鄭平30日在《天下雜誌》舉辦的「2025 AI Forecast趨勢論壇」上演講指出,由於AI資料中心耗費龐大電力,一個大規模資料中心耗電甚至勘比一座城市,因此,未來說不定AI資料中心業者還會打造自己的電網(Macro grid)。
鄭平指出,去年AI資料中心耗電在全球用電占比1.5%,到了2030年將會翻倍,等同於日本去年一年的用電,尤其當進入邊緣AI運算的時代,例如地端都能自己跑AI計算之後,耗電更大,這是一個非常保守的估計。
一個AI資料中心耗電,超過好幾個12吋晶圓廠
同樣的耗電要有更多運算,鄭平指出,從能源轉換效率、散熱計算、AI晶片本身的效率,都是各方努力的空間。
AI資料中心有多耗電,前科技部漲陳良基曾說,一個資料中心至少耗掉1到2千兆瓦的電量,一座台積電12吋晶圓廠耗電約100兆瓦而已,因此AI資料中心對區域電網韌性的挑戰非常大。
目前全球三大AI資料中心投資國,第一是美國,四大雲端服務供應商皆設定出淨零碳排目標。第二大的歐洲,喊出的AI Continent Action Plan強調綠色運算,其AI法案並要求業者自2026年起揭露使用電力來源。第三是中國,政府要求業者至今年底、2025年底時,衡量資料中心能效PUE(Power Usage Effectiveness)要降到1.5,使用綠能比重提高10%。
AI業者蓋資料中心速度,比各國蓋發電廠還快
現在的隱憂是,鄭平指出,建立一個AI資料中心,可能只需要2年的時間,但是蓋一個發電廠,或者更新一個電網,因為受限於法規、供應鏈的限制,可能要花掉5年或者更長的時間。
因此,台達電董事長鄭平表示, 38%AI供應商最大關注的議題就是電網韌性及電力穩定性成為最大挑戰,透過跨界合作,追求電網穩定。
所謂電網(Macro grid),不單指把高壓電塔串起來,而是從饋線獲得台電供應交流電轉換成直流電後,一個內部能自我平衡、調控的封閉電網。
AI資料中心電網,需要強而有力的韌性
鄭平指出,AI資料中心不但本身是用電大戶,而且它耗電並不長期固定,當需要進行大量的運算時,耗電將突然飆高,沒有計算時,可能耗電非常非常低。
他談到,減少電源的次數,也可以提高用電效率,以往「grid to chip」是高壓交流電AC進入區域,降轉成中壓交流電AC,進入AI資料中心建築後轉低壓AC,再轉為直流電DC,轉換越多次中間耗損電力越多,現在新的技術從電網AC直接轉為高壓直流DC,轉為中壓直流電DC再進入AI資料中心,減少耗損。
電源配置、管理技術,就是提高電網韌性的技術
此外,散熱技術提升,也是提高能源效率的方法,鄭平表示,輝達的H100、H200晶片還可以用氣冷式散熱,但是到了GB200這種等級便進入水冷式散熱,未來還會有浸泡式散熱。或者把集中式運算改為分散式運算,減少資料搬運的次數等等,都能提高能源效率。
「提高電網的韌性變得關鍵。」鄭平解釋,提升一個AI資料中心電網的韌性,一定是分散式取代集中式,再加上再生能源如太陽能等導入電網,會增加其不穩定性,需要智能的調節,電力控制調配設備PCS、儲能、甚至是