人工智慧(AI)愈來愈被當作讓戰爭更精準、更理性的技術解方。然而,這種近乎進步主義的想像,正逐漸被現實推翻。根據《全球災難性風險報告2026》(Global Catastrophic Risks Report 2026)的警示,AI 已不再只是軍事系統中的輔助工具,而是實質嵌入戰場決策支援系統(Decision Support Systems, DSS),並開始重塑戰爭的速度、權責結構與政治判斷本身。
被壓縮的時間,被犧牲的判斷
問題核心不在於 AI 是否「夠聰明」,而在於它是否「可被理解與控制」。報告作者丹尼斯.賈西亞(Denise Garcia)指出,與傳統遵循明確規則的軍事軟體不同,機器學習系統依賴資料訓練,在面對陌生或高度變動的戰場情境時,可能產生不可預期的輸出。當這類建議被置於高度緊張、敵我資訊不完整的軍事指揮鏈中,錯誤將不再只是技術問題,而是可能引發升高衝突的政治事件。
尤其值得警惕的是 AI對「時間」的重新定義。AI 的優勢在於加速,它能在極短時間內整合情資、比對監控數據並生成行動建議。然而,正是這種速度,壓縮了人類進行政治判斷與倫理思考的空間。報告直言,當決策時間被壓縮至秒級,指揮官更容易依賴 AI 建議,而非等待更完整、可反思的分析。
核武、誤判與不可逆的風險
此一風險在核武指管系統(Nuclear Command, Control and Communications, NC3)中被放大到極致。報告多次警告,若 AI 被整合進早期預警、飛彈防禦或核武決策流程,將削弱「第二擊」能力的可信度,並增加誤判與假警報的可能性。
而冷戰時期仰賴「人類遲疑」所維繫的核武嚇阻穩定性,在 AI 加速下將可能瓦解。戰爭並非因為更理性,而是因為決策速度太快,而變得不再可控。當決策節奏超越人類理解與反思的能力,任何一個錯誤訊號,都可能被視為必須立即回應的威脅。
黑箱決策與難以問責
更深層的問題,在於責任的消失。國際人道法律建立在可歸責的人類主體之上,假設戰爭決策來自能理解情境、衡量比例並承擔後果的行動者。然而,當 AI 決策系統的運作邏輯呈現黑箱化,問責也將難以落實。
報告指出,這種「問責落差」(accountability gap)正在侵蝕既有的法律與倫理邊界,使違規行為不再是例外,而逐漸成為制度性結果。當沒有人能清楚說明「為何做出這個決定」,民主與法治的基礎也將隨之動搖。
全球治理追不上技術競逐
從全球層次來看,軍事AI的治理顯然落後於技術應用的速度。無論是聯合國致命性自主武器系統政府專家小組,或是近年倡議的「負責任軍事 AI 使用政治宣言」,多半仍停留在自願性原則,缺乏一致的風險評估框架與實質約束力。
首先,「有意義的人類控制」(meaningful human control)不能只是外交場合的宣示語言,而必須落實為國內制度。凡涉及致命風險或可能升高衝突的 AI 決策支援系統,都應清楚界定其僅具建議性質,並保留可追溯、可問責的人類決策節點。若 AI 在實務上成為自動授權工具,等同於在制度上放棄人類的政治責任。
其次,民主監督必須及早進場。國會與相關監督體系應建立專門的軍事AI風險審查機制,即使在機密限制下,也必須對民意代表負責,否則將侵蝕民主問責的制度根基。
軍民界線模糊下的治理責任
再者,軍事 AI 高度仰賴民間科技能量,勢必模糊產業、學術與國安之間的界線。若僅以標案與保密協定處理,長期將導致科技社群被動納入軍事邏輯,而缺乏公共倫理討論。
有鑑於此,台灣有必要建立跨部會、跨領域的軍民 AI 治理平台,讓工程、法律與公民社會能在制度內共同界定風險,而非事後承擔政治後果。若然,不僅有助於降低區域誤判,也符合台灣長期主張的規則導向國際秩序。
AI 不會自動地讓戰爭變得更理性,但制度選擇可以避免風險失控。對台灣而言,真正的安全,不在於讓軍事決策速度更快,而在於確保即使在最快的系統中,人類的決策責任仍然透明可見、也可以被追究。