羅世宏專欄》AI愈強,戰爭愈近?

評論

美國AI公司Anthropic因為反對大規模監控與完全自主武器, 川普總統於2月28日在Truth Social逕自宣布,聯邦政府機構將「立即停止」使用Anthropic的AI工具,並稱該公司員工為「左翼瘋子」。幾個小時後,美軍對伊朗發動大規模空襲。根據《華爾街日報》報導,這場攻擊行動正是借助了Anthropic的AI工具Claude,用於情報評估、目標辨識與戰場情境模擬。

也在同一天,Anthropic執行長達里歐·阿莫代伊(Dario Amodei)接受了CBS新聞記者喬·林·肯特(Jo Ling Kent)的獨家專訪。被問及為何不同意五角大廈的要求,他說:「我們劃下這些紅線,是因為我們相信越過這些界線,違背的是美國的價值觀,而我們想要捍衛美國的價值觀。」他並且抨擊美國戰爭部(原名國防部)將Anthropic列為「供應鏈風險」,認為這種作法是「報復性且懲罰性的」,前所未有地將一個美國企業置於通常只針對敵對國家的法律框架之下。

這個細節相當重要,因為這凸顯整個AI軍事化辯論的核心矛盾。正如波蘭學者亞歷珊德拉·普熱加林斯卡(Aleksandra Przegalinska)在同一時間在社交媒體上寫道:「加速沒有控制,通常不會以降溫作結。我擔心AI不會成為戰爭的煞車,而會成為它的燃料。」她任教於華沙科茲明斯基大學,同時是哈佛大學勞動與公正經濟中心資深研究員,長期研究演算法治理與科技倫理。

「AI預防衝突」是真的嗎?
主張「AI將預防衝突」的論者,並非全無道理。這個立場的最強版本大致是這樣的:當打擊精準度提高,附帶損害(collateral damage)在技術上可以被壓低,衝突的人道代價理論上可以縮小;當情報分析速度加快,決策者對局勢的誤判機率理論上可以降低。

阿莫代伊在CBS的訪談中,也為AI的廣泛軍事應用提供了正當化論述。他說:「我們這樣做,是因為我們是愛國的美國人。我們做的一切,都是為了這個國家,為了支持美國的國家安全。」他並不反對AI在軍事上的部署,甚至明確支持「部分自主武器」。

然而,2月28日發生的事,讓「AI讓戰爭更精準因此更節制」這個命題,必須被放在一個更複雜的現實框架下重新審視。根據報導,美軍中央司令部使用Claude進行情報評估與目標辨識,已是常態,並非這次行動的特例。AI工具深度嵌入軍事指揮鏈的程度,已到了即便最高行政當局下令停用,實際的軍事行動仍然依賴它的地步——而且需要六個月才能完成汰換。美軍甚至用Claude參與了俘獲委內瑞拉總統尼古拉斯·馬杜洛(Nicolás Maduro)的行動。

這個「不可或缺性」,不是技術能力的中性描述,而是一種已然形成的依賴結構。AI工具一旦深度整合進軍事決策鏈,它就不再只是一個可以隨時開關的選項,而是成為整個作戰體系的基礎設施。這種「不可逆性」,才是普熱加林斯卡所說的「燃料」邏輯的真正意涵:燃料一旦點燃,你不能中途抽換。

問責真空是結構問題,不是意外
持懷疑立場的論者,指向的是幾個具體的結構性問題,而這些問題在2月28日的事件中,都找到了可以對照的現實例證。

首先是決策速度的問題。普熱加林斯卡關注的問題包括:「誰為錯誤的目標辨識負責?誰為不透明的指揮鏈負責?」阿莫代伊在CBS訪談中,直接觸及了這個問題的核心。他說,對於完全自主武器還不夠可靠,「我們需要就監管問題展開對話」;更關鍵的是,「不像人類操控的武器,目前還不清楚誰要為完全自主武器所做的決定負責」。這正是以色列在加薩走廊部署「薰衣草」目標辨識系統後所呈現的現實:錯誤辨識率的問題確實存在,但問責機制幾近缺席。同樣的問題,現在必須被問向美軍對伊朗的這場行動:Claude在目標辨識過程中扮演什麼角色?如果發生辨識錯誤,問責路徑是什麼?

其次是門檻的問題。如果AI確實降低了情報分析與目標辨識的技術成本,那麼發動空襲的決策壓力,是上升還是下降?當工具愈來愈好用,「技術上做不到」這個制動力量就愈來愈小,整個決策重量就更完整地落在政治意志上。而政治意志,如我們在這幾天所看見的,卻未必比技術工具更可靠。

最後是問責真空的問題。2023年聯合國秘書長安東尼奧·古特瑞斯(António Guterres)呼籲在2026年前完成具法律約束力的自主武器國際公約談判,至今仍無實質進展。阿莫代伊在CBS訪談中說得直白:「國會不是世界上行動最快的機構。就目前而言,我們是站在技術最前線看到這一切的人。」這句話也意味著,AI公司現在被迫承擔本應由民主治理機制承擔的判斷責任!

台灣無法置身事外

台灣面對的軍事威脅是具體的,不是抽象的,因此主張完全迴避AI的軍事應用是站不住腳的。無人機系統、AI輔助情報分析、電子戰演算法,這些都已是現代防衛能力的基本構件,台灣沒有理由單方面放棄。

但2月28日發生的這個細節,也就是川普下令停用Claude、美軍同一天還是在攻擊伊朗的軍事行動中使用它,正揭露著一個我們必須認真思考的結構性風險:當AI工具一旦深度整合進軍事指揮體系,它就不再受政治決定的即時控制,而是形成了自身的慣性。這個慣性,在台海情境下意味著什麼?任何一方的AI系統若發生誤判,沒有任何傳統外交機制的介入速度能夠追上演算法的決策速度,「刻意維持的模糊」也就從緩衝變成了引爆點。

阿莫代伊在接受CBS訪談時說:「我們捍衛了這個國家的價值觀。」這句話說得有力。但在同一個下午,那個宣稱要捍衛的國家,正在用他的技術轟炸另一個國家。正如普熱加林斯卡所說的,AI會成為戰爭的燃料,而不是煞車,這句話不幸地正在成為現實。

back to top
navbar logo