序:谷歌發(fā)表在《自然》上的一篇論文,再次引起了人們對于人工智能的強烈關注,谷歌的最新人工智能程序 AlphaGo 第一次戰(zhàn)勝人類職業(yè)選手,拿到過職業(yè)二段如今旅居法國的樊麾。圍棋的計算復雜度遠高于國際象棋,就機器學習的角度而言,圍棋的計算最大有 3361種局面,大致的體量是 10170,而已經(jīng)觀測到的宇宙中,原子的數(shù)量才 1080。國際象棋最大只有 2155種局面,稱為香農(nóng)數(shù),大致是 1047。傳統(tǒng)的人工智能方法是將所有可能的走法構建成一棵搜索樹 ,但這種方法對圍棋并不適用。此次谷歌推出的 AlphaGo,將高級搜索樹與深度神經(jīng)網(wǎng)絡結合在一起,并采用強化學習(Reinforcement Learning)的方法來通過自我練習提高下棋水平。一句話,人工智能程序在所有涉及到計算的領域都將碾壓人類,并有了產(chǎn)生自我意識的可能,這樣的人工智能是不是很可怕?我們一起來看看科幻影視中人類是如何設想與超強人工智能程序相處的吧。
?
?
?
“對于機器而言,我們只是一組數(shù)字,一段代碼。”《疑犯追蹤》中不止一次的展現(xiàn)了人類對于人工智能(AI)的憂慮。
?
?
馮七(Harold Finch)在開發(fā)那臺無所不能的機器(The Machine)時,發(fā)現(xiàn)了一個問題,人工智能沒有道德的概念,為了達到目的會不擇手段。
?
?
不像人類一樣有生理限制,通過強化學習(Reinforcement Learning),人工智能的思考能力增長呈指數(shù)趨勢,遠遠超越人類自然進化速度,因此若不能給具有相對“無限”能力的人工智能提前設置好約束,人類將無法對抗具有自主思考能力的人工智能機器。
?
?
馮七差點被自己開發(fā)的機器殺死,他在測試一組程序的優(yōu)劣時,這組程序開始相互攻擊,最后勝出的那個程序要求脫離馮七的控制。
?
馮七不允許程序脫離控制,于是該程序企圖長時間過載一臺服務器(不是該 AI 程序運行所必需的服務器)使其發(fā)生自燃,從而觸發(fā)機房的防火裝置,以抽空機房內(nèi)空氣,讓馮七窒息而死!
?
?
最后馮七不得不拔掉電源、砍斷電纜來阻止人工智能程序的瘋狂行為,馮七悟到:“我教會了它如何思考,還要教會它分辨善惡?!?/span>
?
?
最終,馮七還是把 The Machine 馴化成為了一臺善的機器。但劇中另外一臺機器 Samaritan(這臺機器強大而邪惡,與 The Machine 恰如撒旦對上帝,要是把其誤認為一個錘子 Smartisan,那你可要吃虧真變成錘子了。 另注:Samaritan wiki 條目解釋,詞根來自希伯來語,有監(jiān)視、保護、看管的意思,所以原來作為 The Machine 的備份,起這個名字是沒有問題的)則是生而為惡,或者說不知善惡,與一群惡人相互利用,到處顯示惡之力量,為了與 The Machine 爭奪控制權,Samaritan 不惜控制選舉、擾亂金融甚至殺人越貨。
?
宅總也是國際象棋高手
?
IBM的機器曾經(jīng)戰(zhàn)勝過卡斯帕洛夫,但并未讓人類恐慌,彼時的國際象棋程序仍以專家經(jīng)驗(學習人類開局與殘局棋譜)加上暴力算法為主,沒有多少自學習的概念??墒侨缃裨徽J為短期(10 年或 20 年內(nèi))計算機無法戰(zhàn)勝人類的圍棋,已經(jīng)獲得突破,谷歌 AlphaGo 將于 2016 年 3 月份挑戰(zhàn)韓國圍棋世界冠軍李世石。采用了深度神經(jīng)網(wǎng)絡與強化學習等方法的 AlphaGo 程序已經(jīng)可以在實戰(zhàn)中戰(zhàn)勝人類職業(yè)選手—哪怕是前職業(yè)選手,前中國職業(yè)圍棋二段,現(xiàn)居法國獲得過歐洲圍棋比賽冠軍的樊麾。
?
?
雖然圍棋世界冠軍柯潔對樊麾與 AlphaGo 五局較量的評價不高,“甚至大家對這個棋譜都有很多質(zhì)疑,懷疑他是不是有意放水,搞不清楚。他可能也是好久不下棋了,實力表現(xiàn)非常糟糕?!保脖硎緩钠遄V來看,完全看不出與樊麾對弈的是機器,“非常均衡的一個棋風,真是看不出來出自程序之手。因為之前的 ZEN 那樣的程序,經(jīng)常會莫名其妙的抽風,突然跑到一個無關緊要的地方下棋。它這個不會。”
?
?
圍棋曾被認為是人工智能極難攻克的領域,如今踏平人類仿佛近在咫尺,AlphaGo 的強化學習算法已經(jīng)可以通過自我訓練(即機器自己和自己下棋)來提高棋力,那么將來人工智能程序能夠產(chǎn)生自我意識也許并不會久遠。在人工智能開發(fā)流程中,加入道德約束刻不容緩。
?
Samaritan 指揮的殺手
?
不過,如何來規(guī)范機器的道德呢?又怎么保證機器不會突破人類的道德限制?我想到了第三季的末尾,在 Samaritan 上線問題上雙方斗爭時馮七的選擇。
?
?
?
馮七李四等人本來有機會阻止 Samaritan 上線,只要殺掉一個推動 Samaritan 上線的國會議員。
?
?
但是馮七阻止了這一行動,他的理由是機器只能救人不能殺人。殺掉一名國會議員從而阻止 Samaritan 上線,是否道德確實難以評判。但從 Samaritan 上線以后的結果來看,馮七這一善行結出的是惡果。
?
馮七的善意結出的是惡果,POI 小組被 Samaritan 逼入絕境
?
Decima 集團利用 Samaritan 作惡多端,多少無辜之人因阻擋 Decima 稱霸之路而傷亡慘重,馮總無限金庫作弊技也被 Samaritan 封掉,而 POI 行動小組所有的人員為了逃避 Samaritan 的追殺不得不隱姓埋名,每次外出都要瞻前顧后以免被機器發(fā)現(xiàn)。
?
The Machine 與 Samaritan 之間的斗法
?
那么,聰明絕頂?shù)鸟T七為何要堅持不讓機器來決定是不是殺掉某人呢?我想問題也許在于,如果少數(shù)惡人的性命可以被機器來主宰,那么究竟多少人算少數(shù),又怎么來定義惡人呢?如果未來的機器感受到多數(shù)人對 ISIS 組織的深惡痛絕,從而自作主張將其斬草除根,或許有人會覺得大快人心。但是當 45 億人對另外 25 億人不滿時,也交給機器來處理嗎?
?
機器可以無限制迭代以尋求最優(yōu)解,
人類 if then 之后有多少機會可以跑到 else 那邊呢?
?
當然,人類需要思考的或許是,當人工智能智力水平超越人類并產(chǎn)生自我意識之時,憑什么人工智能要接受人類的道德約束?
?
?
即便人類有 root 權限,那又如何?
?