如何拉開AI與惡的距離? 專訪中央研究院法律學研究所特聘研究員李建良

科技

從進入停車場的影像車牌辨識、網路上即時問答的聊天機器人、在 X 光片上指出病灶的智慧醫療、一直到可以自動跟車的自駕車,近年來 AI 人工智慧技術持續在各領域中茁壯發展。在新技術以每日新又日新的速度改變社會與生活的同時,也有許多人憂心 AI 技術存在著更多樣的潛在威脅,其所衍生倫理與法律議題,可能是既有的法律難以管控的。法律等公權力應該如何介入,在確保技術發展的同時,不至於造成嚴重的社會問題?本次科技大觀園專訪中央研究院法律學研究所特聘研究員李建良,從法律的觀點來討論 AI 科技興起可能帶來的隱憂。

AI 技術載舟抑或覆舟,癥結仍在於「人」

「當一個技術對人類有更大的益處,法律就應該幫助這個工具,讓正面效應可以擴大。」有別於法律給人強調「防弊」的印象,自 2018 年就開始組織研究團隊,投入研究「人工智慧法律問題」的李建良,在討論 AI 議題,首先強調的卻是新技術為善的龐大潛力。李建良認為,AI 的本質就是新技術。技術本身是中立的,妥善使用會帶來前所未見的好處,舉例來說,自駕車相較於人類駕駛,不存在酒駕或過勞的問題,也會有更靈敏的反應跟路面的覺察能力,顯見有極大的正面效應。

而當然,法律最重要的功能之一仍是規範與防弊,談及 AI 的議題時,李建良強調 AI 技術與任何新興的科技並沒有什麼不同。新科技各種為惡的情況,多數本質上都是舊有的議題變形,「新的技術可能會強化原有的惡行,讓人更容易受害,但仍然是使用者所造成的。」李建良觀察,以某位網紅使用深偽技術(Deepfake)製作不雅片為例,在深偽技術可以快速進行「換臉」之前,原本即存在類似的影片。只是相關的犯行使用了 AI 技術,享用了新科技更快速、更無從察覺的特性,而在被揭發之後也更加引人矚目。

「但本質上,這些都是現有法律就已經在處理的罪行。」李建良認為,並不是所有與新技術相關的犯罪或議題都需要重新制定法規做處理,許多現行的法條就已經足夠。只是現階段的人類社會逐步數位化,執法層面也需要許多的改變,才能更因應走向「紅樹林社會」兩棲在網路與實體生活中的犯行。

AI技術爆發,挑戰各領域重新思索倫理與法律規範

當然,隨著 AI 技術的引爆,法律領域也顯而易見面臨相關的挑戰。現階段綜觀國際,其實並沒有真正的法律在管控 AI 技術的發展,李建良觀察,要立法管束,目前實務上至少存在著兩大困難需要克服。首先,AI 牽涉廣泛,包括醫療、自駕車、機器人、社群等諸多領域,難以使用單一法規完整規範。其次,AI 技術存在著主要管控對象、範圍難以界定,以及該如何界定方不致危害自由的議題。李建良舉例,現階段社群媒體營運端使用 AI 演算法調整使用者接收到的資料,而當這類的技術持續進步,就有可能有機會進一步操控使用者的想法或行為、藉此為惡。像這樣的 AI 應用存在著龐大的不平等空間,需要法律與公權力的介入。但應該如何適當介入、何時介入,而不至於限制相關技術的發展空間,還需要非常多的討論與研究。

由於 AI 技術牽涉的範圍非常廣泛,李建良指出,最終可能不是一套 AI 的專法做規範,更有可能是在各領域發展各自的限制與要求,而且這個過程將會是漸進的。在法制面逐步完善之前,AI 發展的倫理準則也就更加重要。2019 年科技部(現已改制為國家科學及技術委員會)揭示了八個目標方向的「人工智慧科研發展指引」,可以視作 AI 研究的官方規範指南。但這些指引的內容都屬於大方向,各領域需要進一步探索落實細節。

對此,李建良也提出一個管制設定的思路,相關的討論可使用「問題取向」做思考,透過列出會危及原則的條件,來訂定規範。舉例來說,要求 AI 技術不得侵犯「人性尊嚴」,就應該討論 AI 技術在什麼情況下會對「人性尊嚴」產生威脅,然後加以限制、進行維護。「在各領域中,怎樣是可信賴的?各種原則性的東西,最終都要跟各領域的特性做結合,」李建良強調。

不僅仰賴法律的制定,各領域持續、不懈怠的討論與精進,將是未來人類善用 AI 技術的唯一道路。

資料來源

●    採訪中央研究院法律學研究所特聘研究員李建良
●    人工智慧科研發展指引

本文授權轉載自科技大觀園