ChatGPT之父與350多位專家聯署示警:AI讓人類毀滅的風險堪比核戰爭

人工智慧

綜合《路透》與《CNBC》報導,周二(5月30日),OpenAI執行長奧特曼(Sam Altman)、谷歌主管、350名教授、專家在非營利組織人工智慧安全中心(CAIS)公開一份聯署的簡短聲明,警告人工智慧(AI)讓人類毀滅的風險堪比核戰爭。

聯署聲明警告:AI讓人類毀滅的風險堪比核戰爭

「減低AI毀滅人類的風險,應該與流行病、核戰爭等其他社會規模的風險等量齊觀,成為全球優先處理的事項。」該聲明敦促決策官員重視。

350多人的聯署名單上,除了奧特曼,還包括AI公司DeepMind、Anthropic的執行長、微軟和谷歌的高管。還有2位獲得2018 年圖靈獎的AI教父:辛頓(Geoffrey Hinton)、Yoshua Bengio、哈佛大學和中國清華大學等機構的教授。

CAIS特別點名獲得2018 年圖靈獎的AI教父Yann LeCun,沒有簽署這一份聲明,Yann LeCun目前在臉書母公司Meta擔任主管。

Meta主管Yann LeCun沒有簽署聲明

「我們要求許多Meta員工簽名。」 CAIS主任亨德里克斯(Dan Hendrycks)表示,Meta沒有立即回應置評請求。

這封信對外公開時,恰逢美國-歐盟貿易和科技委員會在瑞典舉行會議,預計政客人物將在會上討論人工智慧監管問題。

特斯拉執行長馬斯克(Elon Musk)、一群AI專家及科技業高管率先在4月份警告AI對社會的潛在風險。「我們已經向馬斯克發出邀請,希望他能在本周簽署該聲明。」亨德里克斯說。

AI可用於醫學診斷、撰寫法律簡報

AI最新發展創造一些工具,支持者聲稱,這些工具可用於醫學診斷、撰寫法律簡報等領域,但這引發人們擔憂,AI技術可能導致隱私侵犯和權力錯誤信息宣傳活動,還會催生出為自己利益思考的「智慧機器」。

2個月前,非營利組織未來生命研究所(FLI)發表一封類似的公開信,由馬斯克和其他數百人聯名簽署,要求緊急暫停高階人工智慧(AI)的研究,理由是人類面臨風險。

「我們的信件使暫停研發高階AI成為主流,因為高級AI有毀滅人類的風險,我最近也簽署一封信件,現在終於可以開始建設性的公開對話了。」FLI總裁泰格馬克(Max Tegmark)表示。

歐盟AI成為第一個制訂AI規範的地區

人工智慧的先驅、AI教父辛頓(Hinton)早些時候告訴《路透》,AI對人類構成的威脅,比極端氣候的威脅更為緊迫。

歐盟AI成為第一個制訂AI規範的地區,引起OpenAI創辦人奧特曼上周批評歐盟監管過度,並揚言要離開歐洲,但是遭到政界人士的批評後幾天,奧特曼改變立場。

今年來,世界各地大公司競相開發具有競爭力的產品和功能,原來是因為ChatGPT激發大家對人工智慧有更多認識和採用。

AI可以模仿人類,取代一些藍領與白領的工作

奧特曼的聊天機器人ChatGPT APP去年11月問世,風靡全球,近幾個月AI科技發展迅速,ChatGPT上線僅兩個月,用戶就達到1億。

ChatGPT對用戶的提問做出類似人類反應,這種能力令研究人員和民眾驚嘆不已,這表明人工智慧可以模仿人類,取代一些藍領與白領的工作。

奧特曼也因此成為AI業界的代言人,歐盟執委會主席馮德萊恩周四會見奧特曼,歐盟工業界負責人布勒東下個月將在舊金山與奧特曼會面。

「我們是否應該將所有工作自動化,包括令人滿意的工作? 」

今年3月份,奧特曼承認他對AI科技感到有點害怕,因為他擔心威權獨裁政府會開發這項技術。特斯拉的馬斯克和谷歌前執行長施密特等其他科技領袖也警告AI給社會帶來的風險。

在3月份發表的一封公開信當中,馬斯克、蘋果聯合創辦人沃茲尼亞克、幾位科技業領袖敦促,AI實驗室停止訓練比GPT-4更強大的系統,GPT-4是 OpenAI 最新的大型語言模型,他們還呼籲這類高級AI的開發應暫停6個月的時間。

「當代AI在一般任務上變得與人類具有競爭力。」信件強調。

「我們是否應該將所有工作自動化,包括令人滿意的工作? 我們是否應該發展最終可能超過我們、超越我們、取代我們的非人類思維? 我們應該冒著人類文明失控的風險嗎?」公開信提出一連串關鍵問題。

back to top
navbar logo