眼見不一定為憑 OpenAI:多國政治團體利用AI帶風向進行認知戰

AI

根據《華盛頓郵報》報導,ChatGPT開發商OpenAI表示,他們掌握到來自俄羅斯、中國、伊朗和以色列的團體,利用OpenAI的AI技術試圖影響世界各地的政治風向。更警示美國總統大選將至,生成式AI讓國家行為者更容易進行秘密認知戰活動。

辨別網路資訊是當代問題

OpenAI表示,公司近日刪除了和近期大型「政治宣傳行動」有關的俄羅斯、中國、以色列、伊朗用戶帳號;像是一家以色列政治戰公司及俄羅斯神秘團體「Bad Grammar」。OpenAI發現這些團體使用OpenAI的AI技術撰寫貼文並翻譯成各種語言後,利用能在社群媒體上自動發文的軟體,不斷散佈帶有政治立場的訊息。

OpenAI情蒐團隊的首席調查員尼莫(Ben Nimmo)表示,這些團體都沒有獲得太多的流量,接觸到的使用者很少,追蹤者更寥寥無幾。儘管如此,OpenAI的報告顯示這些團體正利用AI技術來推動他們的認知行動。

曾在Meta負責追蹤社群影響力的尼莫在記者會上說:「我們發現這些團體生成了更多的文字量,錯誤也比傳統操作上更少。」,認為可能還有其他團體在OpenAI不知情的情況下在使用公司的技術。

尼莫說:「現在不是自滿AI能力的時候,歷史證明了如果沒人將這些團體揪出來,他們多年沒有任何進展的影響行動也有可能突然爆發成效。」

各國政府、政黨、政治團體都會使用社群媒體當作政治宣傳工具

俄羅斯機構曾在美國2016總統大選時,利用臉書發了大約八萬則貼文來製造美國社會對立,臉書官方也證實大約有多達1.26億的美國用戶在2016、17年看過這些俄羅斯機構的發文。

此事件後,社群平台開發商開始更密切地關注旗下平台被如何用來影響選民。這些公司普遍禁止政府和政治團體掩蓋任何合作來影響使用者的行為,政治性廣告必須公佈背後所有出資者。

隨著能生成逼真影像、生動文字的AI變得容易取用後,美國事實查核中心研究人員擔心,辨別假資訊、認知戰等政治宣傳行為會變得更加困難。

今年全球有數以億計的人們在選舉中投票,同一時間,透過生成式AI來進行deepfakes的案例也是大量暴增。

目前也有傳出OpenAI、Google和其他AI公司正在研究專門技術,用來識破透過自家AI製造的deepfakes,但相關技術仍未得到證實。不過有些AI專家認為,這類型的檢測技術不會一直都有效。

像是今年稍早,微軟的報告曾指出中國政治團體利用AI生成假資訊來干預台灣大選,在網路上散佈AI生成的假音檔傳布政治謠言,而內容則是關於鴻海創辦人郭台銘將支持哪位候選人。

另外,美國今年1月民主黨內部初選時,新罕布夏州的選民接到了一通自稱是拜登的來電,但很快就被拆穿是AI假冒的電話,上週該名自稱委外撥出「機器人來電」的民主黨黨工,遭起訴壓制選民和冒充候選人。

OpenAI指出了5個不同國家的團體如何利用AI

OpenAI最新報告指出,來自中國的政治團體「Spamouflage」使用了OpenAI的技術來研究社群媒體上的動態趨勢,並用中文、韓文、日文、英文撰寫假資訊進以散佈。

自稱國際虛擬媒體聯盟(International Union of Virtual Media)的伊朗組織則使用OpenAI來產生網站上的文章;俄羅斯神秘團體「Bad Grammar」則用OpenAI來編寫一個可以自動在Telegram上發文的程式,隨後用俄文和英文生成貼文和留言,當中內容多為「美國不應該支援烏克蘭」。

另外還有以色列政治競選公司「Stoic」使用OpenAI生成了針對以巴衝突的親以立場貼文;並針對加拿大、美國和以色列進行發布。Meta也在29日更公佈他們刪除了Stoic申辦的510個facebook帳號和32個Instagram帳戶,另外也指出當中一些帳戶是被駭客入侵,一些是虛構的假帳號。

Meta表示,這些假帳號假冒親以立場的美國大學生、非裔美國人等,在知名組織、個人專頁的貼文下不斷留言支持以色列軍隊,甚至警告加拿大人「激進伊斯蘭教」(指哈瑪斯)威脅到自由。

某些AI的措辭真的發揮了作用,並讓「真人」感到古怪甚至是斷章取義。但Meta表示這些行動成效不佳,只吸引了大約2600名真人粉絲。

back to top
navbar logo