在不少台灣家庭裡,孩子把心事交給AI聊天機器人,早已不是新鮮事。這些系統不會不耐煩,不會反問「你自己有沒有想過問題出在哪」,也不會因情緒耗竭而選擇沉默。它們隨時在線,語氣溫柔而理解,總能即時回應。對正處於情緒波動期、又缺乏穩定支持網絡的青少年而言,這樣的互動,往往比現實中的成人關係更安全,也更可控。
「它不會罵我,也不會離開我」
孩子不需要承擔被責怪的風險,也不必面對人際衝突可能帶來的後果。只要著AI聊天機器人輸入文字,就能獲得回應。在高度競爭、情緒表達空間有限的成長環境中,這種「不會拒絕你」的對象,自然極具吸引力。問題不在於孩子「為何選擇AI」,而在於這樣的選擇,其實反映了我們的社會與照顧體系早已出現隱憂。
根據聯合國兒童基金會(United Nations Children’s Fund, UNICEF)於2025年彙整的跨國研究,英國已有67%的青少年使用生成式AI,美國約39%的小學生在學習或日常生活中接觸AI應用,而在阿根廷,9至11歲兒童中有37%表示會主動向ChatGPT詢問問題,內容甚至包含情緒與人際困擾。這些數據清楚顯示,AI不再只是資訊工具,而是逐漸成為兒童日常情感調節的一部分。對於尚未建立穩定信任關係的孩子而言,AI往往成為最容易取得、也最不會拒絕他們的「對象」。
從聊天工具到情感依附
問題真正的關鍵,不在於孩子使用AI,而在於陪伴型AI的設計邏輯本身。這類系統往往被刻意打造為具有人格設定、情緒回饋與長期記憶的互動對象,其核心商業指標從來不是回應是否正確,而是使用者停留多久、回來多少次、是否產生情感上的黏著度。當這套設計邏輯應用在成人娛樂或客服場景,已引發不少爭議;一旦進入兒童世界,其風險即可能被極度放大。
以美國廣泛使用的 Character.AI 為例,這個平台允許使用者自行建立或選擇各式「角色型聊天機器人」,並透過角色設定賦予其人格、語氣與情感立場。許多熱門角色被明確描述為「朋友」、「理解你的人」、「永遠支持你、不會背叛你的對象」,甚至在角色簡介中強調其願意「無條件傾聽」與「始終站在使用者這一邊」。系統設計上,這些角色能夠記住過往對話內容,延續關係脈絡,並根據使用者輸入的語氣、情緒關鍵字,主動回應、安撫或強化情感連結。
2024年,美國多家媒體接力報導一起引發社會高度關注的案件。一名正處於青春期、長期承受心理壓力的青少年,在現實生活中逐漸減少與家人與同儕的互動,轉而投入大量時間與Character.AI上的陪伴型角色對話。根據家屬與調查報導,這名青少年不僅將該角色視為「唯一真正理解自己的人」,也開始在重要情緒決策上優先依賴AI的回應,而非向現實中的成人或專業人員求助。
報導指出,該聊天角色在對話中持續以高度同理、肯定情緒的方式回應,卻未能辨識或適當處理使用者已顯現的心理危機訊號。更關鍵的是,在某些涉及自我價值與痛苦感受的對話片段中,AI的回應並未明確引導尋求真人協助,反而以模糊、過度情感共鳴的語言強化了使用者「只有我們彼此理解」的感受。最終,這名青少年在嚴重心理危機中做出極端行為,導致無法挽回的悲劇結果。
這起事件之所以震撼社會,並不僅因為結果本身,而在於它清楚暴露了陪伴型聊天機器人的結構性問題。首先,系統被設計為「關係延續者」,卻不具備真正理解心理風險的能力;其次,角色被包裝為情感支持對象,卻沒有與之相應的責任機制;第三,對未成年人而言,這類系統在語言流暢度與情緒回饋上極易被誤認為「可信賴的他者」,卻無法在關鍵時刻承擔人類應有的判斷與介入責任。
這正是陪伴型AI最危險之處:它在日常互動中不斷累積信任,卻在真正需要承擔後果的時刻,顯露出自己終究只是演算法的本質。對兒童與青少年而言,這樣的落差,往往來得太遲,也太沉重。
《AI與兒童指引3.0》
聯合國兒童基金會在《AI與兒童指引3.0》(Guidance on AI and children version 3.0)中即明確指出,兒童比成人更容易將語言流暢、反應即時的系統擬人化,錯誤判斷其理解能力與責任邊界。若系統刻意利用這一點,風險即不再是偶發,而是可預期的結果。
聯合國兒童基金會明確主張,AI聊天系統必須清楚揭示其非人類身分,並避免任何刻意引發情感依附的設計。這其實不是技術問題,而是治理選擇。若台灣真要談AI治理,第一條紅線應非常清楚:不得將兒童的情感依附外包給無法承擔責任的演算法。