AI演算法已經在幫政府查核福利詐欺、幫社群平台審查內容、甚至幫警察預測犯罪。然而,在這個AI無所不在的時代,你是否曾想過:那些看起來理性客觀的電腦系統,真的公平嗎?
最近幾個跨國合作新聞調查報導揭露,這些使用人工智慧的系統,其實暗藏歧視、放縱犯罪,甚至扼殺言論自由。因此,接下來我們該追問的是:當人工智慧演算法出錯時,誰該負責?
瑞典社會安全系統對弱勢「特別關注」
在瑞典,社會福利領域應用的演算法被發現有問題。一項由《瑞典日報》(Svenska Dagbladet)和國際調查機構Lighthouse Reports合作的調查報導指出,瑞典的社會保險局使用一個自動化系統來偵測可能的福利詐欺者,但這個系統特別容易把移民、單親媽媽、打零工的人標記為「高風險」對象。
換句話說,住在某個區域、收入不穩定,或看起來不像典型的瑞典人,就可能被無緣無故地「抽查」。有些人甚至因此暫時失去生活補助,有的案例甚至長期無法申訴成功,生活陷入困境。更嚴重的是,這些演算法的風險指標來源不公開,也未經外部機構審查,讓整套機制幾乎成了「黑箱」作業。
這些調查報導激起公憤,瑞典綠黨立刻要求國會介入調查,政府也面臨必須交代演算法運作細節的壓力。
AI生成的兒童色情照流傳,Meta竟沒發現
另一則來自巴西的調查,讓人更加震驚。網路媒體《Núcleo Jornalismo》(簡稱 Núcleo)獲得普立茲獎的報導指出,有至少14個Instagram帳號分享用AI生成的兒童色情影像,有些還引導使用者去付費平台獲得更多類似內容。
這些帳號明目張膽地存在平台上,卻沒被Meta及時發現和處理。直到記者揭露後,Meta才匆忙移除這些帳號。巴西政府也對Meta啟動監督調查程序,質疑他們的審查制度已根本失靈。
調查人員指出,這些帳號持續活躍數月,不僅使用難以追蹤的匿名帳戶,還搭配類似合法內容(如童裝照)混淆視聽,逃避審查機制。這凸顯平台現行的自動偵測工具對AI生成內容的辨識能力仍相當不足,也證實現行審查流程對於創新型態的數位犯罪無法奏效。
支持巴勒斯坦貼文,默默被平台隱藏
再來看看美國。獨立媒體《The Markup》進行一項實地實驗,檢查Instagram是否在審查特定政治內容。他們建立一系列帳號並上傳支持巴勒斯坦的內容,結果發現:這些內容的觸及率明顯低於其他內容,而且還無法向平台申訴。
該項實驗發現,某些貼文幾乎在發布後立即被系統降權,使用者卻完全未收到通知。即使內容未違反任何社群守則,卻被「靜音」處理,形成實質的言論限制。一些帳號甚至在不明原因下遭到暫時封鎖,事後也無法取得明確解釋。
Meta雖在報導出來後恢復了部分內容,但並未說明為何會出現這種「陰影封鎖」現象,也未建立有效的申訴機制。
這個案例提醒我們:當社群平台變成公共討論的主要場所,我們言論的能見度就掌握在演算法手中。如果這些演算法有偏見,卻又沒人能夠監督,就可能造成「看似自由,實則被過濾」的假象。
跨界合作:揭露真相的數位公民力量
上述這三個案例有一個共通點:它們都是由記者、資料工程師、人權團體與學術機構攜手合作完成的。這種「跨界合作調查」正成為新的數位正義力量。
這不只是新聞報導,而是結合技術分析、政策監督、倫理辯證的綜合行動。調查團隊通常會透過資料科學方法建立模擬實驗帳號,分析演算法行為模式;同時還會運用AI逆向工程、政策公開請求(FOIA)或與吹哨者合作。學者們則提供法規倫理與統計支持,確保相關發現可用於推動制度改革。
比方說,《The Markup》的團隊中就包括資料科學家與法律顧問,協助釐清平台責任邊界。《瑞典日報》的記者則與學界共同檢視社會福利系統的風險模型,提出改善演算法設計的具體建議。
在這樣的跨界合作模式中,新聞記者不再只是報導者,而是數位世界的「監督工程師」;而這種結合技術與公共利益的行動,或許正是對抗演算法濫權、重建數位治理信任的起點。
台灣準備好了嗎?
看到這些案例,不禁讓人反思:台灣呢?我們的健保資料、補助審查、甚至交通違規可能都已開始引入AI演算法。可我們真的知道它們怎麼運作嗎?它們有沒有可能也在不知不覺中加深不平等?一旦出了錯,有沒有申訴或監督機制可以保障人民的權益?
此外,我們的社群平台內容,也受全球演算法影響。如果我們的社會議題貼文無法觸及群眾,我們能怎麼辦?
我們需要更強的演算法透明法制,更好的監督制度,更懂技術的媒體,也需要一個願意問問題的社會。唯有如此,才能讓這些看不見的系統對公眾開放、對錯誤負責。
演算法並不是壞東西。它們也可能讓決策更有效率,讓平台更加安全。但關鍵在於:我們是否有能力監督它?能否有機會問它為什麼這樣判斷?有機會防止它犯錯傷人?
這些跨國合作調查提醒我們:演算法治理不能只靠技術人員或平台公司。媒體、公民團體、學者、政府與一般民眾,都有參與的角色,因為這些不只是科技問題,而是攸關民主的問題。