今年九月,哈佛甘迺迪學院(Harvard Kennedy School)學術期刊上的一篇研究論文指出:大型語言模型在不同語言、不同國家領域中,會出現「非對稱偏好」。
該篇論文發現幾個耐人尋味的現象。大型語言模型往往對「母國」或「母語」展現更多的好感。在中文語境下,某些模型對中國及其領袖的評價明顯偏正面,而一旦改用英文提問,這種偏好幅度就顯著下降。這意味著語言不只是表達工具,而是模型在訓練過程中吸收政治與文化傾向的載體。
語言模型偏好浮現,語境差異牽動政治立場
更值得注意的是,這樣的偏好會沿著資訊傳播鏈擴散,最常見的形式不是赤裸的謊言,而是「正向誤導」(positive misinformation)。例如,誇大政績、粉飾人權紀錄,或刻意放大正面敘事。這些敘事方式不像假訊息那樣容易被拆穿,卻能在潛移默化之間改變社會氛圍。
研究還發現,模型在「自我反思」或推理輸出時,偶爾會呈現近似「策略指令」的語句,顯示內部安全閘(guardrails)與語料偏差之間存在拉扯。
回到台灣情境,問題更加嚴峻。台灣近年積極使用生成式AI,但若缺乏跨語言測試與外部審核,我們很可能在繁體中文語境下,放大中國威權敘事的正面詮釋,而渾然不覺。
正向誤導難以察覺,框架效應潛移默化社會氛圍
「正向誤導」的隱憂,比假訊息更難防範。傳統的事實查核多半針對真假命題:某人是否說過某句話、某數據是否存在。然而,正向誤導的運作方式,往往不是直接捏造,而是透過「選擇性陳述」「語氣包裝」與「框架轉換」來重塑理解。
以中國人權爭議為例,如果模型被問到新疆再教育營的問題,它可能避開「拘禁」「強迫勞動」等敏感詞,轉而強調「教育與就業培訓」;或者承認問題存在,但立即補上一句「隨著經濟發展,狀況正在改善」。這些表述本身或許不算謊言,但卻在潛移默化之中淡化了制度性侵害的嚴重性。
美國史丹佛大學的研究也指出,最具影響力的錯誤敘事,往往不是「病毒不存在」這類明顯錯誤,而是「疫苗有效但副作用被低估」這類半真半假的說法。換言之,越接近真相、越有「合理性」的訊息,越容易鑽過事實查核的縫隙,也越容易改變群眾態度。
模型訓練文化染色,跨語言測試揭示雙重政治身份
在媒體理論裡,這種現象被稱為「框架效應」(framing effect)。當問題被包裝成「發展優先」或「文化差異」的框架時,受眾會下意識接受正面解讀,而忽略背後的制度性壓迫。對台灣而言,這尤其危險。因為我們的社會輿論對中國議題高度敏感,一旦AI系統在繁體中文環境中反覆輸出這類「看似中立卻帶傾向」的回應,久而久之會削弱社會對威權的防衛本能。
其他研究同樣提供了警訊。有學者發現,中國系統模型在簡體中文下展現最強烈的親中、反美傾向;改用繁體中文時偏向下降,而在英文中幾乎消失。另一個研究則指出,同一模型在中英文對中國議題的回應差異極大,甚至形成兩套不同的「政治身份」。
英國劍橋大學的學者認為,若模型主要受訓於單一文化語料,回應會傾向該文化價值,形成「隱形的文化霸權」。德國馬克斯普朗克研究院(Max Planck Institute)的研究則發現,即便在娛樂或歷史題材,模型也會呈現「立場染色」。
這些發現對政策制定者提出挑戰。美國智庫如戰略與國際研究中心(Center for Strategic and International Studies, CSIS)與卡內基國際和平基金會(Carnegie Endowment for International Peace)都提醒:在採用不同治理體系下開發的模型時,政府與企業不能只看技術性能,還必須評估「錯誤資訊風險」、「審查配置」與「外交立場」。
台灣應建多語語料公地,強化治理與查核機制
歐盟更進一步透過立法回應。《人工智慧法案》(EU Artificial Intelligence Act)與《歐洲媒體自由法》(European Media Freedom Act, EMFA),都要求科技公司揭露訓練語料來源,並建立獨立監管機制。這些努力,正是要避免演算法成為威權敘事的輸出管道。
對台灣而言,因應之道並非單純靠技術,而是需要透過治理、事實查核與基礎建設的共同推進。公共採購若能將「跨語言偏向審核」設為必要程序,繁、簡、英三種語言交叉測試,特別在人權、外交與國安領域,都必須公開透明,並交由第三方驗證。
事實查核生態圈也需要升級。若只停留在真假命題,就無法因應「正向誤導」這種更隱蔽的操作。台灣的事實查核組織未來應該建立針對「片段真相」、「錯置比較」、「情感緩衝」的案例庫與識別準則,並推廣至媒體識讀教育。
同時,台灣必須建立屬於自己的「多語語料公地」。若沒有繁體中文、台語、客語與原住民族語料的公共庫存,我們永遠只能被困在別人的語料邊界裡。透過公私協作,建立清晰授權、可追溯的語料基礎,並要求供應商提交語言模型偏向的透明度評估報告,才能讓我們在生成式AI的生態中保有話語權。