美光12層堆疊高頻寬記憶體 同時打入輝達和AMD資料中心供應鏈

半導體

將AMD 目標價從125 美元上調至140 美元。 AMD 股價周一突破127 美元,創下1月6 日以來新高,主要是周 AMD 發表次世代 AI 晶片 Instinct MI400 系列,能將數千顆晶片連接在一起,因此,華爾街的分析師非常看好第四季GPU帶給AMD的成長,調高它的目標價。

然而,對AMD來說目前比較成熟的GPU是MI350 系列,對上輝達的Blackwell系的資料中心。值得一提的是,不論是AMD的MI350或者輝達的Blackwell資料中心,所能搭配的高頻寬記憶體之一,都有美光的 12 層堆疊 HBM3E。

美光高頻寬記憶體,也打入AMD的供應鏈了

之前,國際媒體報導,美光提供給輝達的 HGX B200 和 GB200 NVL72的是8 層堆疊HBM3E 高頻寬記憶體,24 GB 晶片。

但是,輝達的Blackwell Ultra GPU 要運行更大的人工智慧模型、大型語言模型,須要更大總記憶體容量,而美光最新的12 層堆疊的36GB 、 HBM3E 記憶體的總記憶體容量增加了 50%,而且功耗還將降低 20%。

AMD和輝達是全球前兩大GPU供應商,AI伺服器的領導廠商,美光提供輝達超寬頻記憶體,當然不會放棄AMD。

能跑5400億個參數的 AI 模型,又更省電

6月17日,美光科技宣布將其 HBM3E 12 層堆疊 36GB 記憶體整合至即將推出的 AMD Instinct™ MI350 系列解決方案中,簡單的說,就是AMD的MI350 系列GPU,也可以搭配美光的超寬頻記憶體,來打造AI資料中心。

美光表示,此次合作突顯能源效率和效能在訓練大型 AI 模型、提供高傳輸量推論,以及處理複雜之高效能運算工作負載 (如資料處理和運算建立模型)方面的關鍵作用。

美光想強調的是,當AMD的GPU採用了美光高頻寬 HBM3E 記憶體,就可以靠MI350就跑 5200 億個參數的 AI 模型。(所以當MI400成熟上市時,就能跑更大的模型了)

市場領先者仍是SK海力士,各廠進入HBM4的競爭

AMD 的Instinct MI350 系列 GPU 平台採用自家CDNA 4 架構,美光指出,整合 288GB 高頻寬 HBM3E 記憶體,可提供高達 8 TB/s 的頻寬,實現龐大的吞吐量。憑藉如此龐大的記憶體容量,Instinct MI350 系列 GPU 可在一顆 GPU 上高效支援高達 5200 億個參數的 AI 模型。

雖然AMD的t MI350 系列也採用三星的12層超寬頻記憶體,但美光也急起直追,官方正式宣布和AMD合作,也意味著已能和三星競爭,更何況,三星的12層HBM到底有沒有辦法獲得輝達認證,外界都還在觀望。另一方面,海力士仍在高頻寬記憶體保有領先地位,和三星、美光已經進入HBM4爭霸戰。

back to top
navbar logo