「魔鬼終結者」殺錯人算在誰頭上 聯合國首度討論AI武器道德問題


聯合國裁軍審議委員會13日首度舉行第一場國際性探討未來戰場上可能遇上的AI戰爭機器人角色的論壇,但未討論到禁用。(攝影 / 翻攝自網路Terminator)

­人工智能機器人因為演算結果自動殺人無法究責,因此國際電動車大廠特斯拉執行長馬斯克(Elon Musk)和Google機器深度學習共同創辦人蘇萊曼(Mustafa Suleyman)早在8月疾呼將人工智慧AI武器視同為殺人機器,就像化學武器等非人道武器,AI戰鬥機器人應該列入《特定常約武器公約》中的禁止使用名單,聯合國聽到了。

《法新社》報導,聯合國裁軍審議委員會(U.N. Disarmament Commission)於13日首度舉行連續5天的跨國論壇,針對AI武器未來在戰場上角色、與國際人道主義衝突問題進行討論,這也是聯合國第一次討論AI機器人武器在未來戰爭中的角色。

由於根據國際人道主義法,電腦不能被追究責任,因此AI機器人殺人的責任究竟如何歸屬?引起極大的討論,聯合國會議主持人來自印度的代表阿曼德普.吉爾(Amandeep Singh Gill)表示,關於戰爭的規範也因應對新技術而發展起來,而近年AI技術的突飛猛進讓人類面臨道德問題「人工智慧武器正走在鋼索上。」

程式演算法殺人,責任算在誰頭上

事實上,特斯拉執行長馬斯克與全球百位人工智慧專家在今年8月呼籲聯合國將人工智慧武器視同為殺人機器,應該列入《特定常約武器公約》中的禁止使用名單, 關於人工智慧的爭議包括「如果持有武器者和暴徒之間的界線模糊,該怎麼辦?」、「他們究竟聽誰的?而且如何聽?」、「人類應該允許這種情況嗎?」

最大的爭議是,當一個「魔鬼終結者」經過演算法判定要殺一個人,萬一犯錯了,那麼責任該歸咎給誰?然而倡議禁止殺人機器人的人認為,人類最終必須對殺死或摧毀的最終決定負責。他們認為,任何將把決策責任推給演算法下的武器系統在定義上都是非法的,因為根據國際人道主義法,電腦不能被追究責任。

阿曼德普.吉爾則說,「有人認為人類必須對涉及生死的決定負責,但是,目前各界對於致命武器的機制必須由“人類控制”的定義有不同的意見。」

這次討論還包括民間科技公司參與,部分討論將集中在如何定義AI武器種類上,阿曼德普.吉爾表示,目前人道主義法對於處理AI戰爭機器人議題還只是剛起步而已,「現在去談禁用或者是設置什麼條約還遙不可及。」

聯合國尚未討論禁止,連規範都還談不上

紅十字國際委員會武器部門的尼爾.戴維森向《法新社》表示,「如果你在使用這個武器系統時發生了一定程度的不可預測性或不確定性,那麼你將開始遇上法律方面問題。」他強調「我們的底線應該是,機器不能適用法律,你不能把法律決定的責任轉移給機器。」

下週11月19日聯合國會議還將舉行關於人工智能機器人武器的廣泛討論,但一直引發反對者批評所謂的聯合國討論一直淹沒在新技術的定義問題上,而不是緊急處理這個問題。

電動車特斯拉與Google無人自動車、圍棋程式Alphgo都運用到了人工智慧演算,因此馬斯克和蘇萊曼對AI的能耐非常的清楚,他們在8月聯合上百家人工智慧企業的公開信提到,「殺手機器人可能會成為暴君和恐怖分子用來對付無辜人群的武器,而且襲擊的武器會以不道德方式行事。」、「一旦這個潘多拉的盒子被打開,它將很難關閉。」