ELISUN平臺贏了柯潔的AlphaGo,依然算不上人工智能嗎

2019-10-15 15:10:37
ELISUN平臺訊,在了解ELISUN平臺交易所的時候,需要知道ELISUN平臺正規嗎?ELISUN平臺合法嗎?ELISUN平臺出入金快不快,ELISUN平臺靠譜嗎等等問題,才能夠更全麵的了解ELISUN平臺。
 
十分鐘精准拆解,帶你讀懂一本好書。今天我們為大家帶來的這本書,是來自中國人民大學出版社的《人工智能全球格局》,由國務院發展研究中心國際技術經濟研究所、中國電子學會和智慧芽合著。
 
人工智能是一個需要持續積累和技術迭代的過程,注定是一件漫長的事。即使在現在,各個科技巨頭和創業公司通過在不同應用場景中布局人工智能領域,探索出了不同的發展路徑的今天,來自中科院自動化所的曾毅博士仍然認為,現在我們所說的人工智能,還只停留在數據智能的階段,與生物智能還有着本質的區別。而未來,他堅信人工智能的發展方向將是“基於機制的人工智能”,也就是探尋生物智能的本質——理解人腦是如何協調數百項認知功能去解決沒見過的問題的,基於此,實現機器的擬人化和人類認知的機械化兩個方向的逼近,才能發展出具有意識的超級智能生命體。
 
曾毅博士關於人工智能的更多觀點,將會完整的呈現在今天我們要推薦的這本《人工智能全球格局》中,而作為一本通俗易懂的人工智能科普讀物,在這本書中,你能看到行業內的各種從業人員,是如何從源頭上思考人工智能的本質和發展歷程、全面解讀各國政府以及科技巨頭的人工智能布局,、以及審慎看待我國的人工智能科技和產業實力的,除此之外,你也能通過這本書,了解一段以科技創新領跑世界的中國故事。接下來,就讓我們先從曾毅博士的這篇文章中一睹為快吧。
 
十分好讀 |《人工智能全球格局》:贏了柯潔的AlphaGo,依然算不上人工智能嗎?
 
智能數據分析與真正意義的人工智能存在本質區別
文 | 曾毅
 
關於媒體上流行的產業驅動的人工智能故事,大家都聽過非常多了,我對它的總結是:當前幾乎所有這些工作,准確地說叫作基於數據的人工智能(databased artificial intelligence),簡稱數據智能。因為,這些工作是基於大規模數據,找到一個合適的數學函數來擬合數據,產生擬定的預期。如AlphaGo,如果反問:通過AlphaGo一系列的工作,我們對人類的決策機制有了哪些新的認識?其實是幾乎沒有的。因此,基於數據構建的看似智能的模型,其實質只是信息處理,是大規模的數據分析,與“智能”的本質無關。
 
但是,我相信未來的人工智能是向機制智能發展的。我們稱之為“基於機制的人工智能”(mechanismbased artificial intelligence)。也就是說,我們真正需要追尋的是生物智能的本質。對於任意一項認知功能,包括對人腦如何去協調數百項的認知功能去解決沒見過的問題的探索,都是在回答它的科學本質是什么。
 
人工智能研究從开始至今不過短短幾十年,而真正人類的智能已經經過了數億年的演化,在演化過程中通過基因突變等獲得了不同的嘗試,生成了不同物種的腦。為什么數億年的演化,把人腦塑造成這樣,而不是果蠅或者小鼠的樣子?人腦又有什么樣的優勢?我們做的工作是從不同類型物種的大腦的建模开始,從中抽象出認知結構與機理,然後應用到機器智能當中去。
 
數億年的演化使得人類大腦把人體系統的結構和機制有機地組合起來,使得人體系統表現出更好的魯棒性和抗噪能力。在目前最理想的狀況下,深度學習系統在有足夠多的數據訓練,並且測試數據與訓練數據都理想的狀況下,能夠獲得與人類大腦同等水平的魯棒性和抗噪能力。但是,在任何客觀的現實世界中,理想的狀態都不存在。腦結構與機制的結合使得高度魯棒性和抗噪性可以從我們構建的類腦模型中湧現出來,這並非特定的函數設計所能實現的。
 
人類顯然有很強的決策能力。人的決策是通過若幹腦區的協同來實現的。我們把這樣的決策模型放到無人機、機器人等不同平臺上,使得無人機等學會自主避障、自主穿越復雜場景。所有的規則都是在线學習的,機器人學習的速度剛开始跟人類似,後面則比人快,因為其計算能力比人強。把同樣的模型用到機器人上,讓它去理解人類的意圖等不同的應用,其實都只是類腦人工智能在狹義人工智能中的一些進展。目前正在探索的問題,就是如何使得模型變得通用。比如,谷歌DeepMind提出的模型,它希望一種網絡可以應對多個任務。可問題是:當它學習第二個任務的時候,第一個任務的性能也會下降,如果它還想同時完成第一個任務的話,第二個任務也不能得到最好應對。這都不是人類智能的特點。人腦至少可以分成近250個腦區。這些腦區是自組織協同的,可以去應對不同的任務,也就是說,人腦的自組織原理才是最重要的。
 
人類的認知功能至少有150項,到目前為止,全世界的人工智能頂多挑战了其中的30項,剩余的絕大多數很少有人去研究,比如說意識的問題。在神經科學領域,可以通過2~5周的訓練使得以往被認為沒有自我意識的恆河猴通過鏡像測試,從而被認為湧現出了自我意識。在這樣的實驗的啓發下,我們構建了猴腦的點神經元脈衝神經網絡模型,該模型具有363個腦區。應用近似猴腦的計算模型以及相關的訓練實驗,機器人通過了鏡像測試。目前,雖然機器人可以通過鏡像測試,但問題是,我們能說機器人有了自我意識嗎?我們可以說,猴子通過了鏡像測試,所以我們認為這個物種有自我意識;但反過來,機器人通過了能夠說明嗎?實際上不行。所以,現在我們的結論是:一個不具備人類認為的意識能力的機器人,它也能通過鏡像測試。因此,傳統鏡像測試判斷物種是否具有自我意識的假設實際上是不嚴謹的。實現機器的自我意識是我們重要的努力方向,很顯然這還只是初步自我感知的开始。總體而言,我們希望未來能通過計算建模來發現智能演化的規律,預測智能演化的趨勢,並應用到未來人工智能模型的自主智能演化上。
 
十分好讀 |《人工智能全球格局》:贏了柯潔的AlphaGo,依然算不上人工智能嗎?
 
探索未來智能的兩個方向
當前我們在智能的探索上做了兩個方向上的努力,一個是從機器向擬人化發展,一個是從人類向機械化方向發展,擴展人類的智能。一方面,機器的擬人化(humanization)使得機器越來越像人,使它能夠與未來的人類更好地交互。另一方面,人類也在通過延展認知能力提升着自身,所以這部分工作叫作mechanization,就是機械化。未來人工智能的發展就是從上述兩個方向逼近,向具有意識的超級智能生命體發展。
 
兩個方向需要回答的科學問題出發點是不一樣的。從機器智能的角度出發,我們需要回答它們到底是誰、我們到底怎么構建一個具有智能的生命的問題。從人類的角度出發,問題是我們人的大腦是怎么工作的、我們是誰。未來,有意識的超級智能生命體的發展不是割裂的,不是兩個方向無關的努力,而是兩個方向朝着統一的目標深度融合探索的未來。
 
我國的人工智能社會倫理問題研究亟待加強
未來的超級智能體很顯然會超越現代人類智力水平,其風險和倫理問題將是非常關鍵的一環。我國已採取很多舉措,《新一代人工智能發展規劃》中也對人工智能的社會風險與倫理高度關注。但必須承認,我國在這方面的研究仍然是落後的。
 
現在的人工智能發展,看上去如火如荼,但實際上往哪個方向走才是正確的道路大家並不確定。是否走了彎路,是否出現方向錯誤,決定了一個國家未來的人工智能是不是真正能夠發展好。如果做的根本不是人工智能,而是看似智能的大數據分析、大規模信息處理,那我們就應該老老實實地講和做這件事情,而不是去冒充人工智能,否則的話,會對我國人工智能的科學發展造成本質幹擾和深遠影響。
 
另一件讓人擔心的事,是在2018年9月新加坡政府未來战略研究中心與劍橋大學合辦的人工智能未來論壇上,一位美國投資人做報告時說,她在烏鎮智庫的大會上與我國人工智能相關企業負責人交流時,發現他們幾乎沒有表現出對人工智能風險與倫理問題的太多實質的考慮,這讓當時大多數與會人員相當喫驚。我當即回答,中國的新一代人工智能發展不可能容忍國家的人工智能平臺對未來社會的影響不做深度战略思考。這位投資人說的情況反映出來一個現實問題,就是我國人工智能從業人員在對人工智能潛在的社會風險與倫理問題以及對未來治理方面的考慮與國際社會是有距離的。如果未來我們在人工智能風險與倫理領域僅僅是跟隨研究,將會非常被動和麻煩,由此可能產生的對社會負面影響也將很難估量。
 
舉兩個例子來看從技術角度對安全、倫理問題進行考慮的必要性。現在深度學習模型在產業界當中運用得已經非常普遍,但現實是,一張飛機的圖片,當其中一個關鍵像素被改變時,深度學習模型把它識別成了狗;一張青蛙的圖片,當其中一個關鍵像素被改變時,深度學習模型認為這是一輛卡車……試想,當未來大規模的視覺監控系統甚至是機器警察在馬路上开展監控任務時,發現一個三歲的小孩手裏拿着一只烏龜,這時候有一張白紙片恰好落到合適的位置上,深度學習系統認為小孩拿着的是一把槍,那時技術決策和真實場景之間的差異又會引起什么樣的潛在風險?這樣一個設想值得我們去深度思考現有人工智能模型的安全性和透明性。
 
有些人認為,有意識的人工智能是一件非常危險的事情,但我的看法是:沒有一定程度自我意識的智能模型才是最危險的。因為具有自我意識的類腦模型具有自我識別的能力、擁有動機與價值觀的能力、區分自己和他人的能力、看待他人和看待自己一樣的能力,以及與他人共情的能力。機器人如果不能識別自己、不能為他人建模,那么它為了完成任務就可以犧牲所有人類的意義,因為它根本不理解人類和它們之間的關系。德國哲學家托馬斯·梅岑格(Thomas Metzinger)說,我們給機器人植入人工智能倫理只有一次機會,如果失敗了,那么人類未來就會被顛覆了。我的觀點是:如果採用植入的手段,則可能一次機會都沒有!因為人工智能的模型可以演化,你可以植入,它就可以構建一個接口,使得你植入的部分被包圍,未來這個被植入的部分就不能正常工作;並且它可以自組織出一個網絡,在輸入和輸出的層面掩蓋一切變化,使得判斷模塊仍在繼續工作,但實際上從整體的模型角度,它已經不再符合人類的規定了。這就是我認為“一次機會都沒有”的原因,這也是為什么我認為一個機器人應該具有揣測別人的思維、認知共情甚至情感共情的能力的原因。
 
十分好讀 |《人工智能全球格局》:贏了柯潔的AlphaGo,依然算不上人工智能嗎?
 
每個國家、機構、企業不同的倫理法則版本,都是在闡述我們對人工智能倫理和准則的認識。包括未來生命研究所(Future of Life Institute,FLI)阿西洛馬會議制訂的23條原則,看上去覆蓋得比較全面,但仍有很多重要的要素被遺漏。對未來超級智能體的規劃與風險的評價是這些法則之間區別最明顯的點,阿西洛馬原則的領先性也由此顯現。
 
與之相比,目前中國在人工智能倫理方面的研究存在如下問題:(1)缺乏相對全面和長遠的考量,沒有對全方位風險的預測。(2)中國准則如何與國際上各版本協同。大多數其他國家在做此類研究時,參與者至少有一半是人工智能從業人員,但是我國目前絕大多數人工智能倫理與治理的研究參與者沒有人工智能的研究和行業背景。如果出現這樣的情形:提出的倫理准則在技術上是不可行的,而倫理與治理研究人員對技術上的潛在風險又不理解,就會對未來社會形成潛在危險與嚴峻的挑战。
 
未來的人工智能發展,需要有正確的模型,以及在正確模型基礎之上發展起來的倫理法則。最糟糕的情形是,我們現在的人工智能,看似是有智能的,但其實它自己也不知道自己在做什么,以及它會帶來怎樣的風險。誠然,就像人工智能系統不能依賴規則系統去羅列所有的規則一樣,我們也不可能構建一個極其完善、沒有任何漏洞的倫理准則。我們盼望的是,未來的人工智能系統構建於我們人類的智能之上,它的機制與人類是一致的,它從演化的角度可以出現更多的利他行為。如果它的模型是從人類基礎之上發展起來的,那么它至少已經有了很多的利他行為基礎及協同發展的動機。即便也還是會出現一些非預期狀況,這恐怕也是發展人工智能最安全的途徑之一。
 

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

推薦文章

Weowncoin Review 2023: Is Weowncoin Safe?

In this review, we will dive into Weowncoin, expl...

Weowncoin Exchange
360 1年前

為什麼Exscoin 的信任評分為平均至良好?

本文詳細分析了虛擬貨幣交易平臺Exscoin的信任評分,並對其為何獲得平均至良好評分進行了探討。E...

Exscoin交易所
212 1年前

財經商學輪股社—全球匯市本週報告

財經商學輪股社—全球匯市本週報告財經商學輪股社報道,美圓周五有望錄得一個多月以來的首周漲幅,因市場...

財經商學輪股社
237 1年前

張鼎豐|市場避險需求穩定黃金價格

張鼎豐|市場避險需求穩定黃金價格張鼎豐黃金數據顯示,金價周五動搖不大,但由於一係列疲弱的經濟數據引...

張鼎豐
275 1年前

張鼎豐分析美國經濟或「溫和衰退」

張鼎豐是一位知名的金融學家,出生於臺灣。他在加州大學洛杉磯分校獲得了博士學位,並且曾經在哈佛大學、...

張鼎豐
244 1年前

2月3日外匯實战策略

美元指數:美指周二回調在90.80之上受到支持,反彈在91.30之下遇阻,意味着美元短线回調後有可...

區塊鏈愛好者
390 3年前