留言討論


分享本文至 E-mail 信箱

【GMIS 2017】人工智慧可能向「人腦智慧」學到更多嗎?

文/高靜宜

全球機器智能峰會(GMIS 2017),是全球人工智慧產業信息服務平台機器之心舉辦的首屆大會,邀請了來自美國、歐洲、加拿大及國內的眾多頂級專家參會演講。本次大會共計 47 位嘉賓、5 個 Session、32 場演講、4 場圓桌論壇、1 場人機大戰,兼顧學界與產業、科技巨頭與創業公司,以專業化、全球化的視角為人工智慧從業者和愛好者奉上一場機器智能盛宴。

5 月 27 日,機器之心主辦的為期兩天的全球機器智能峰會(GMIS 2017)在北京 898 創新空間順利開幕。中國科學院自動化研究所復雜系統管理與控制國家重點實驗室主任王飛躍為本次大會做了開幕式致辭,他表示:「我個人的看法是再過幾年,我們 90% 的工作是人工智慧提供的,就像我們今天大部分工作是機器提供的一樣。我們知道人工智慧會給我們提供一個更美好的未來。」

大會第一天重要嘉賓「LSTM 之父」Jurgen Schmidhuber、Citadel 首席人工智慧官鄧力、騰訊 AI Lab 副主任俞棟、英特爾 AIPG 數據科學部主任 Yinyin Liu、GE Transportation Digital Solutions CTO Wesly Mukai 等知名人工智慧專家參與峰會,並在主題演講、圓桌論壇等互動形式下,從科學家、企業家、技術專家的視角,解讀人工智慧的未來發展。

下午,在騰訊 AI Lab 副主任俞棟的主持下,《機器學習的前沿與交叉研究》主題圓桌論壇順利展開。Citadel 首席人工智慧官鄧力、北師大認知神經科學與學習國家重點實驗室教授吳思、麥克馬斯特大學工程實踐與技術學院助理教授高振以及 Bay Labs 科學家 Johan Mathe 就機器學習與神經科學、語言學等話題展開了深入的探討,呈現了一場精彩的前沿思想碰撞。

問題一:各位怎樣看待機器學習與認知智能(Cognitive Intelligence)之間的關係?

高振基於自身機器人研究背景,率先提出人工智慧方法可以讓機器人更加智能的觀點。目前已經有許多方法都在思考,如何將數據應用到環境中進行測試以及智能地決策。有些機器人公司不希望把機器人系統開源、把信息分享出來,這與機器學習產業中或者社群中所做的不同。

「我們有一些平台進行機器人的學習,現在他們慢慢地想利用新的開放平台進行應用,並嘗試把新想法融入到自己的公司中去。」高振同意 Gary Marcus 演講的觀點,即人工智慧現在還不夠成熟。在過去幾年裡,人工智慧有點冷下來了,而現在我們又處在人工智慧成為熱門話題的時代。「這是我們的機會,也是我們的挑戰,因為這個領域的研究非常多元化。我想說,我們很幸運正在這個領域努力工作著,但是它也需要其他領域人的合作和貢獻,這樣才能促進人工智慧有更長足的進展。」

Johan Mathe 認為這是一個非常有意思的話題,他提出了兩種方式。一是用控制的方法進行機器學習,具有 200 年歷史的控制系統可以給我們提供很多數據;二是可以利用深度學習或者強化學習訓練數據,讓機器可以學習、實現自我的完善。

鄧力在談到智能管理與機器學習之間的關係時說,通常情況下學習就是要預測,現在有三種預測。他認為對於認知控制就如你擁有一個模式,比如說牛頓定律,這個模式的目標就是要學習他的一個行為,這樣最終可以達到最優功能。

具有機器學習背景、並對大腦科學感興趣的吳思坦誠:「我對於智能控制了解不多,但是可以對於生物學習說兩句。」他認為,從神經科學角度來看,生物學習比機器學習更為複雜,具有很多不同的學習規則,而人們現在對於生物學習的規則,甚至是對於有監督學習的了解都還不夠深刻。生物要想能學得更好,更多是利用無監督式學習(Unsupervised Learning)。「問題就是,這怎麼能夠讓人類學到他現在學到的這些東西?這也是無監督學習的一個原則,而這個學習機制我們現在還不是很清楚。」

問題二:各位怎樣看待神經科學和機器學習之間的關係?

吳思剛表示,自己一開始是研究有監督的機器學習,那個時候還沒有超高速的電腦,研究進展也非常緩慢,這使他感到很沮喪。於是,他就嘗試對神經系統進行探索,希望可以得到一些啟示。

現在他看到深度學習已經取得了長足的進展,也認為可以從生物的神經系統裡面學到很多。目前為止,機器學習的應用都是一些非常直接的,比如分類等簡單的工作,都是靜止的。而神經系統都是實現一些動態的,跟世界有充分互動的應用。「我認為在未來,如果說有真正的人工智慧出來,我個人認為它應該學習神經系統。當然我們不需要讓機器去模擬照抄大腦的系統,但是也可以從人類的神經得到很多。」

接著,Johan Mathe 談到多元化的話題。他提到了於近期發表的一篇文章,這篇文章提到一些加州大學柏克萊分校的神經科學家把 1970 年電子游戲中的微處理器拿出來,就像分析哺乳動物的大腦一樣,在實驗室裡分析微處理器。可是這些神經學家一點都不理解微處理器中一些比較高級的算法。Johan Mathe 覺得這篇文章的論點非常有趣,「我想,現在用神經科學作為一個例子,讓我們更好的做機器學習是一個好主意,但是我們需要謹慎,在人類還不了解哺乳動物大腦本身的情況下,拿它作為提供機器學習啟示的例子,我們需要採取謹慎的態度。」

高振認為,大多數的機器學習都受到神經網絡、深度神經網絡的啟發,也有一些是受到人類認知系統的啟迪。「在神經網絡方面,我們可以看到一些新設計出來的神經網絡,更類似於人類的神經大腦。但這還是不夠的,要想接近人類神經元的水平或是人類的認知系統,機器學習還差得很遠。」

鄧力表示,曾在 4、5 年前與吳思教授聊天談到,神經元採用自然的生物波峰、波谷進行信號傳遞,而機器學習則利用模擬和數位信號,這是一個比較二者很好的切入點。鄧力稱,有兩種看待這個問題的方式,一是神經元由於生理所限,無法做持續的模擬信號,只能做一個脈衝;二是如果用脈衝來傳遞信號,對於學習是有優勢的。

不過,到目前為止也沒有一個徹底的理論來分析電脈衝與模擬信號的各種利弊,只能說採用脈衝來傳遞信息是節能的、低功耗的,比 GPU 功效低。「但在另一方面,我還想請教其他演講嘉賓,這個問題就是脈衝在生物系統裡面使用的方式。我覺得一個大腦有太多的神經元了,如果我們要讓人工智慧達到人類大腦神經元的數目,也許那個時候神經系統的管理可能也會是由脈衝來進行的,是具有巨大功耗的。這是一個我們可以思考的方向,是人類大腦給我們的一個啟示。」

吳思也抱有同感,他表示為什麼在人工智慧中考慮脈衝,是一個時常被討論的話題。他認為,我們確實應該從人類大腦的電脈衝裡面學到很多。

不過,高振則對這個領域持保留態度,「因為我不太了解大腦是如何工作的,如果我們刺激大腦的某一個處理功能,只能了解到大腦如何在低層次觀察,不能了解它在高層次上是如何運作的。同時我們也不太了解大腦如何同時做多項任務,所以這是我的保留意見。」

吳思對此表示認同,因為大腦的功能非常複雜、難以理解。「當我們去比較神經科學的時候,我們不止要讓機器模擬人的大腦,還要理解大腦運作的一些模型跟原則。現在我們在一個非常微型的層次上,想要把這些大腦的原則聯繫在一起,看能不能再把這些連接到機器學習裡面。我覺得機器學習跟神經科學的研究應該是並行前進的,有的時候是神經科學能夠給機器學習提供啟迪。」

高振補充道:「大腦是多功能的,它具有情緒,能夠完成任務,也可以感到焦慮,我們的一切都可以在大腦中完成。但是如果我們使用機器學習的話,目前來講,它只能做一部分工作,不能做多元化的工作,所以人工智慧總的來說還不是很成熟。同時我們也不太了解大腦如何同時完成多功能的任務。」

對此,吳思表示,如果只針對某項很特別的任務,我們不需要全然學習神經網路,但是如果想讓機器達到多功能或更高智慧的一些功能,我們就需要對人類大腦進行對照,畢竟它進化了那麼久,留下的都是最好的功能。

高振回應道:「達爾文《進化論》我們以後再談,因為我們不知道恐龍滅絕之後具體發生了什麼,我們也不知道智人到底是怎樣漸漸產生的,有可能人類的智慧也是某一種工程設計的結果,所以達爾文這個理論我也持保留意見。」

在這個問題最後,Johan Mathe 談到了一個機器學習如何啟迪神經科學的研究。哈佛大學有一組聯結主義的實驗中,科學家們選擇連接一組數據集,並把大腦中約一立方公釐大小的神經元的信息蒐集進來,從一些單位裡得出一些深度學習的語言。Johan Mathe 認為這個研究是非常有價值的。

問題三:關於機器學習如何影響語言學的研究,各位有何高見?

鄧力認為,對語言學提供一些理論框架,有利於幫助我們理解自然語言。大多數對語言的理解都是基於數據的分析,很少抽取出一些真正的結構和規律,也無法令人滿意。如果能夠真正使用語言學的一些理論來引導機器學習,對於自然語言的研究,應該能夠比現在用機器學習的原則來指導學習效果好很多。

鄧力談到他曾與一位來自霍普金斯大學、對於神經處理有很深造詣的認知學家在一個項目上合作過幾個月。當時,他們把語言的結構嵌入到神經結構中,並於不久前把實驗結果提交給權威機構,機器之心也曾展示了這項研究結果。(詳見:微軟提出深度學習新架構:使用問答系統來得到語法上可解釋的表徵)「語言給機器學習提供的啟示並不需要非常精確的理論,只是一些基本框架就好。如果把基本語言的內部結構借用到機器學習或引進到機器學習中,哪怕你現在看不到它實在的益處,將來也會看到它一些有益之處。」

俞棟提出,語言學可以分成幾個子領域,比如理論語言學、計算語言學、應用語言學,某些領域裡還是有一些很大進展的。在早期,人們試著發明一些規則,希望能夠用這種基於規律的學習,讓機器來進行翻譯,但是現在機器翻譯更多都是基於機器學習的原則。對此,俞棟發問論壇嘉賓,「對於機器學習改變語言學的研究,不知道你們有沒有額外的想法?」

鄧力認為在這個領域,機器學習具有很多優勢。比如語言學屬於人腦先智性的、是內化的,他也曾跟許多語言學家合作,這裡面有很多的內容,是可以進行機器學習的,也具有這樣的驅動力。

相反,高振表示:「我覺得語言學家還沒有認識到這點,比如像 Google 翻譯器、訊飛或者搜狗翻譯器,他們仍有很多需要改進的地方。」

問題四:近年來,我們看到了很多研究是屬於深度學習之上的內容,比如包括圖像合成、語音合成等等,這方面大家想法如何?

鄧力相信,這種合成是在深度學習方面很好的內容,他也一直推動這樣的發展。「如果你回到神經網絡的方法,要做深層其實是更難的,你必須要確保圖像跟你的要求匹配。所以我們一直在說通用模式或者其他模式,我覺得對於我們來說這是一個進步。我們的實驗室也做的非常努力,我們希望利用這些現有的技術能做到這一點。」

吳思表示:「我們的任務是線性化的,而且我們也要知道自己想要什麼,會使用機器學習來解碼這些任務。我們的這個機制跟大腦有關,需要做一些合成,這是我們通常模式的做法。我們使用這樣的一種方式,來看我們的假想是否與觀察是一致的。」

吳思認為現在的通用模型是深層模型,神經系統使用的記憶方法,跟深層學習不一樣,更多時候是理解這個物體之間的相似性。而我們在深度學習當中接受一些知識或者一些想法,也可以通過這種比較來進行學習。

(本文授權無轉載自 GMIS 2017大会圆桌论坛:机器学习的前沿与交叉研究

機器之心 SYNCED 主辦的 2017 全球智能機器峰會(GMIS 2017)於北京圓滿結束。從大咖參會、「人機大戰」,到六場主題 Session 和 IME 主題展的設置,GMIS 2017 上有哪些吸睛的亮點與最新趨勢?請參考泛科技「GMIS 2017 機器智能時代」特輯

關於作者


機器之心

機器之心是中國領先的前沿科技垂直媒體,關注人工智能、機器人、神經認知科學等前沿科技以及深度科技思考,旨在通過高質量內容讓用戶更好地了解即將到來的下一次技術變革,同時啟發大家對人與科技的哲學思考。

留言討論


網站更新隱私權聲明
本網站使用 cookie 及其他相關技術分析以確保使用者獲得最佳體驗,通過我們的網站,您確認並同意本網站的隱私權政策更新,了解最新隱私權政策