從AlphaGo看人工智慧的可怕之處

書摘

作者簡介
 

郝景芳
1984年生於天津。2006年從北京清華大學物理系畢業,進入北京清華大學天體物理中心;同年,郝景芳正式開始科幻寫作。2013年獲得北京清華大學經濟學博士學位。2017年創立兒童通識教育專案「童行計畫」。

其作品包括短篇小說集《孤獨深處》、長篇小說《流浪蒼穹》、《生於1984》。2016年8月,短篇小說〈北京折疊〉獲得雨果獎最佳中短篇小說(收錄於《孤獨深處》)。
 

離超級人工智慧到來還有多遠

我想先討論一些大家都關心的問題。

「人工智慧會在每個方面都超越人類嗎?」

「人工智慧會愛上人類嗎?」

「人工智慧會毀滅人類嗎?」

……

這些問題最近真是太火了,大老們在媒體上議論,廣大群眾在網路社群裡議論。

借這熱潮,我也想來討論一下,人工智慧未來會變成什麼樣子。

很遠之後的人工智慧,會變得像人一樣嗎?會像《西方極樂園》或是《人造意識》裡面那樣覺醒嗎?會像《魔鬼終結者》或者《駭客任務》裡面那樣對抗人類嗎?未來的人工智慧會有什麼行為?超級人工智慧會實現嗎?我們距離超級人工智慧還有多遠?

這些問題很有趣,只是都很大,很容易變成空對空的議論。

支持者說,人工智慧會讓全世界更美好;懷疑論說,人工智慧時時刻刻就能毀滅人類。

人文學者說,人工智慧永遠學不會愛;技術派說,人工智慧能做到人類智慧的一切。

這些全都來自專家之口,又都大而廣之,我們該信哪一個?該反駁哪一個?

這裡面有太多概念上的問題,AlphaGo太宏觀也就無從討論。

我要從什麼地方開始談呢?

我想,還是從小處入手,從AlphaGo開始談。

AlphaGo是這一輪人工智慧熱的開端,也是這一波人工智慧潮流中最具典型性的技術之集成。它的勝利是整體人工智慧的希望,它的困難也是所有人工智慧的瓶頸。

我想先談一下AlphaGo厲害在哪裡,然後講一下它目前面臨的困難。以此出發,對人工智慧的整體發展前景做一下展望。

我想從AlphaGo向未來展望,我們距離超級人工智慧的到來還有多遠。即使我們談論的是未來即將毀滅我們的壞智慧,也需要認真對待生成它的步驟。把大象放進冰箱還需要三個步驟,我們連冰箱門在哪裡還沒找到,就談論大象凍成冰棍的味道,未免太早了些。

AlphaGo會發展為超級智慧嗎?

AlphaGo的厲害之處

故事從AlphaGo開始。可能很多人還不了解AlphaGo的重要性,覺得不就是會下圍棋嗎,怎麼引起這麼多轟動的議論?

AlphaGo的厲害之處,並不在於它贏得了圍棋冠軍。

它贏得圍棋冠軍是很厲害,但這不是最關鍵的。圍棋毫無疑問是很需要智力的遊戲—可能是人類最需要腦力的高級遊戲—但如果只是一個圍棋冠軍,在世界範圍內並不會引起這麼大的熱潮。它厲害的地方在於,它不僅能做圍棋冠軍。

歷史上也有過機器戰勝人類的轟動,「深藍」戰勝卡斯帕羅夫,「Watson」戰勝人類智力競賽冠軍。當時也有過「機器就要統治人類」的驚呼,但過不了幾年,聲音又消失殆盡。於是吃瓜群眾難免會問:這次難道有什麼不一樣?是不是又是「狼來了」的鬧劇?

事實上,以AlphaGo為代表的新時代人工智慧,確實還是有一些不一樣的地方。

AlphaGo的厲害之處,在於能夠自己快速學習。

AlphaGo除了下圍棋還會很多事

機器分成兩大類,一類是:人類研究出一些方法和學問,教給機器,機器也能學會做;另一類是,把原始素材丟給機器,機器自己琢磨琢磨,自己找出了對的方法。前者是師傅說先放油、再放肉、最後放菜,徒弟跟著學,一盤菜就炒好了;後者是師傅丟給徒弟一堆材料,徒弟自己試來試去,最後自己發明了更好吃的菜。

以前的電腦多半是前者,以AlphaGo為代表的新一代人工智慧基本上能實現後者。

如果只是跟著師傅做學徒,只學到師傅的招數,即便手腳麻利辦事勤快,也不足為懼;但如果自己琢磨功夫,琢磨出來的功夫比師傅還厲害,發明了師傅都看不懂的招數,那豈非讓人大大驚懼?

AlphaGo就是這樣的。人們並沒有教它下棋的套路,只是丟給它以前的棋譜,讓它自己觀察,觀察好了就自己跟自己對弈,最後再出來和高手過招。最終的結果就是它會下棋了,下的棋路與人類高手都不同,但人類下不過它。就好比把一個人丟在荒山野嶺中,無人問津,出山的時候卻成了絕世高手。

你說這可怕嗎?

聽起來有點可怕。不過這種學習能力還能做別的嗎?如果只能下圍棋,那也不足為懼。

答案是,完全可以。這恰恰是關鍵所在。這一輪人工智慧熱潮之所以引起那麼多人追逐,就是因為人們發現AlphaGo所仰賴的學習算法,還能做很多很多別的事情。

下圍棋只是一個典型的例子,用同樣的算法,稍加改造,就能學會金融投資、看合同、銷售策略、寫新聞。還有很多別的事情。在短短幾年裡,就已經有各個行業領域的人工智慧誕生出來。

神經網路學習與深層學習

什麼?這是什麼算法,有這樣的魔力?

AlphaGo究竟是如何做到自我學習的呢?

實際上機器學習並不是非常新的概念,從幾十年前,人類就試圖讓機器自己學習事情,但受限於算法和當時的計算速度,機器學習的步伐一直都不快。

AlphaGo的算法叫「深層學習」,它的前身是「神經網路學習」,也是幾十年前就誕生的算法,當時流行過一段時間,後來被一篇著名的論文打消了熱度,再加之學習效果不算好,於是遭遇冷遇幾十年。在與AlphaGo的創始人相遇之前,「神經網路」並不是眾望所歸。

「神經網路」是什麼算法?「深層學習」又是怎樣將其點石成金的?

「神經網路」是一種「民主投票」算法,效仿大腦的神經網路建成。大腦的神經網路是這樣工作的:一個神經細胞接收很多個神經細胞的信號輸入,一個刺激信號相當於贊成票,一個抑制信號相當於反對票,如果某個細胞收到的贊成票和反對票合起來大於某一個門檻,就算是通過了,會有一個信號發出去到下一個神經細胞。一路贊成的刺激信號就這樣一程程傳遞下去。神經網路算法是數位版腦神經網,用數位連接形成網,而其中的投票機制和大腦相似。它可以讓信號在整個學習網路裡傳播,比單路信號分析複雜很多,智慧也高很多。

「深層學習」是什麼呢?「深層學習」是「深度多層神經網路學習」的簡稱。深度是指層次多,一層套一層的神經網路,構成整個算法的深度。層與層之間的關係,大致是這樣:每層神經網路分析的精細程度不同,底層分析細節,上層做出判斷。將一個整體任務分解成無數細節,給一個輸入,底層神經網路會分析基礎細節,然後將分析結果傳給上一層網路,上一層網路綜合之後再將結果傳給更上一層的網路,而頂層網路綜合層層傳來的結果,做出判斷。例如,想讀出一個字,底層網路會判斷字裡有沒有橫豎撇捺,上一層網路會判斷字裡有沒有直角,再上一層網路判斷是不是由左右兩部分拼成一個字,諸如此類,最上層的網路根據層層結果認出這個字。這種多層判別本身是效仿真實人類的大腦,人類大腦就是由一層層神經網路組成,每一層網路識別信號,再將處理結果傳遞到上一層。人類皮層大腦的神經網路層次大約有六層。「深層學習」網路可以有上百層。

換句話說:「深層學習」就是把從前的「神經網路」重疊了多層。

就是這樣嗎?僅僅把「神經網路」疊了多層,就從受人冷遇的小人物變成了江湖明星?故事有這麼雞湯嗎?

當然不是這麼簡單。「深層學習」這次能煥發生機,也是生逢其時,有兩陣不可忽略的東風送其上青雲。

人工智慧熱潮的重要推動因素:大數據

一陣東風是演算力增強。電腦晶片的速度呈指數增長,價格一路下跌,由遊戲應用發展壯大的GPU(圖形處理器)大大不同了從前CPU(中央處理器)引擎的計算能力,讓人工智慧計算更強大。AlphaGo戰勝李世乭的時候啟用了一千九百二十個CPU和二百八十個GPU陣列運算,一秒能自我對弈數百盤。

另一陣東風是大數據。事實上,這可能是這一輪人工智慧熱潮最重要的推動因素。人們赫然發現,原來不是算法的問題,而是以前用來訓練的數據還遠遠不夠多。這就好比讓徒弟自學武功,卻不給他足夠多的對戰機會。有了大數據,算法呈現的結果出現了驚人的進步,讓人目瞪口呆。

於是,在算力和大數據的輔佐之下,升了級的「深層學習」算法如虎添翼,能夠從海量數據中找到高超的戰術規律,以人類無法看懂的方式戰勝人類。

就是大數據輔助的「深層學習」,成為了這一輪人工智慧熱的關鍵。

人們把很多很多大數據扔給機器,用多層神經網路進行「深層學習」,結果發現,機器在很多領域能力有了突飛猛進的提高。圖像識別的正確率趕上了正常人,語音辨識也過關了,把科學文獻做為數據,短時間就能學習幾十萬最新文獻。金融、電力、能源、零售、法律,「深層學習」都能從大數據中學到優化的行為作法。人工智慧的應用,能讓這些領域變得高效、便捷自動化。除了「深層學習」,也還有其他算法,包括後面要提到的決策樹、貝葉斯等算法,各種算法的綜合使用效果是最佳的。各種算法共同構成機器學習大家庭。

還有什麼是人工智慧學不會的嗎?

除了深層學習,AlphaGo另一重武器叫做「強化學習」。「強化學習」是什麼呢?簡單點說,就是「無序嘗試,定向鼓勵」,就好比小朋友在屋裡隨機行動,走到數學教具旁邊父母就說「好棒好棒」,後來小朋友就特別喜歡走到數學教具旁邊(當然,這純屬假想的場景)。這種思維一點都不奇怪,在心理學中很早就已經應用到教學中,對大多數教學場景都有效果,尤其對一些發展遲緩的還子做教學干預(但也有心理問題)。

最近我們都聽說了新版本的AlphaGo Zero,依靠自我對弈的強化學習,用三天時間戰勝了老版本的所有AlphaGo。這是很強大的方法。實際上在AlphaGo的最初版本中,自我對弈的時候也已經用到強化學習。隨機嘗試和正回饋能使得行為很快集中到特定的目標上。

現在問題就來了,還有什麼是人工智慧學不會的嗎?