全球雲端運算龍頭亞馬遜網路服務(AWS)執行長亞當·塞利普斯基(Adam Selipsky),6日接受CNBC專訪時,深入剖析了當前雲端市場的「優化」浪潮、AI領域的激烈競爭,以及AWS為下一階段增長所進行的策略性投資。塞利普斯基坦言,客戶對成本控制的關注達到前所未有的高度,但強調這僅是雲端成熟過程中的一個過渡期,長遠來看,雲端採用的潛力依舊龐大。他堅信,生成式AI是這個時代最具變革性的技術,而AWS的獨特策略將使其在這場技術軍備競賽中保持領先地位。
客戶精打細算:「優化」成短期趨勢
塞利普斯基在採訪中首先面對了外界對雲端支出成長放緩的質疑。他解釋,這並非是對雲端價值的否定,而是客戶進入了一個「優化」階段。在過去幾年快速、大規模的雲端遷移之後,企業現在正專注於審視其現有的雲端資源配置,確保他們能從每一筆投資中獲得最大的效益。
他指出:「我們正在經歷一個客戶專注於優化的階段。他們希望確保既有的雲端投資能發揮最大作用,這在某些程度上對我們的短期增長產生了壓力。」然而,塞利普斯基迅速將焦點轉向更宏觀的視角,他強調儘管短期內有阻力,但基礎的增長動力和長期的趨勢依然強勁。他將這種「優化心態」視為雲端技術成熟的正常組成部分,並預計隨著企業將重心轉回新的工作負載和創新項目,市場將逐漸穩定。
他觀察到,客戶已經開始將重點從單純的成本削減,轉向利用雲端來加速業務轉型和新產品開發。他預計,當這些新的創新項目從研發階段走向大規模生產時,將會釋放下一波巨大的雲端需求。
AI競爭策略:提供「選擇」和自研晶片優勢
當談及當前科技界最熱門的話題——生成式AI時,塞利普斯基表現出極大的熱情,並將其定位為「我們這個時代最具變革性的技術」。面對微軟、Google等競爭對手的強力挑戰,AWS採取了與眾不同的策略:堅持提供客戶「選擇權」。
AWS並不僅限於推廣自家開發的模型(如Amazon Titan系列),更積極地在Amazon Bedrock服務平台上整合了多家頂尖的第三方基礎模型,包括Anthropic、Stability AI等領先者的模型。這種「多模型、開放選擇」的策略,旨在滿足客戶在不同使用情境下對模型多樣性的需求,避免客戶被單一供應商鎖定。
更關鍵的競爭優勢,來自於AWS在硬體層面的深度布局。塞利普斯基重點提到了AWS的兩款自研晶片:用於推論的Inferentia和用於訓練的Trainium。他強調,這兩款客製化晶片對於降低AI工作負載的總體擁有成本至關重要。「你不能只看模型的優秀程度,成本才是讓AI得以普及和擴大規模的關鍵。」自研晶片使AWS能夠在性能與成本效益之間找到最佳平衡,特別是對於那些需要大規模訓練或執行高頻率推論的企業而言,這是一種難以複製的護城河。
繼續大筆投資:為AI浪潮提前部署產能
面對優化浪潮,AWS的資本支出策略也成為關注焦點。塞利普斯基明確表示,AWS將持續進行大規模且穩健的投資,特別是在支持生成式AI的基礎設施和產能方面。
他指出,AI帶來的需求是爆炸性的,如果不「超前部署」進行投資,就無法抓住這個巨大的市場機遇。「你必須在實際需求出現之前就做好準備,擁有足夠的數據中心容量、網路和電力,才能滿足客戶對AI訓練和部署的龐大需求。」
塞利普斯基的言論反映了科技巨頭之間正在進行一場AI基礎設施的「軍備競賽」。AWS的持續大筆投入,目的就是確保在全球範圍內擁有足夠的算力儲備,以便在下一波生成式AI應用爆發時,能迅速為企業提供服務。總結來說,塞利普斯基的展望是審慎樂觀的:雖然客戶的優化心態可能會短期影響增長速度,但AI作為核心驅動力,正引導AWS進行大規模、長期的策略性投資,為雲端運算的未來奠定堅實基礎。