1. 程式人生 > >大咖 | 《深度學習革命》作者:人們對AI概念的理解存在偏差

大咖 | 《深度學習革命》作者:人們對AI概念的理解存在偏差

 

人工智慧發展到了今天,關於深度學習以及神經網路等學術名詞人人都能說上兩句。

 

但是,你真的理解這些概念麼?

 

其實,人們對這些詞語的很多理解都存在偏差。

 

對基本概念的誤解必然導致對人工智慧的錯誤解讀。因此“殺手AI”、“機器人使我們過時”等話題便應運而生。

學習演算法研究的先驅Sejnowski認為:堅持“AI終結論”觀點的人忽視了電腦科學和神經科學領域中其他令人興奮的可能性。這些人往往不明白人工智慧接近人類智慧後會發生什麼。

 

近日,Sejnkowski接受了科技網站The Verge的訪談,在採訪中Sejnkowski談到了“深度學習”為何突然變得無處不在,它能做什麼和不能做什麼,以及如何看待對“深度學習”話題的炒作。

 

下面是訪談內容,請欣賞!

 

注:以下V代表The Verge,S代表Sejnowski

 

V: 首先,我想請教一下定義。現在人們普遍把“人工智慧”,“神經網路”,“深度學習”和“機器學習”等詞語交替使用。但這些是不同的東西,你能解釋一下嗎?

S: AI可以追溯到1956的美國,當時工程師們決定編寫一個試圖模仿人類智慧的計算機程式。在AI中,一個新領域成長起來,稱為機器學習。與AI中的傳統方法不同,在機器學習中我們不是編寫一個循序漸進的程式來做某事,而是收集大量關於我們想要理解的內容的資料。例如,你正在嘗試識別物件,所以你收集大量與該物件有關的影象,然後通過機器學習自動地分析各種特徵,並以此判斷出一件東西是汽車而另一件是訂書機。

 

機器學習是一個非常大的領域,並且可以追溯到很久以前,當時人們稱之為“模式識別”,但演算法在數學上變得更加廣泛和複雜。在機器學習中是受大腦啟發的神經網路,然後是深度學習。深度學習演算法具有特定的體系結構,其中有許多多層網路。基本上,深度學習是機器學習的一部分,機器學習是人工智慧的一部分。

在這裡我還是要推薦下我自己建的大資料學習交流裙:805127855, 裙 裡都是學大資料開發的,如果你正在學習大資料 ,小編歡迎你加入,大家都是軟體開發黨,不定期分享乾貨(只有大資料開發相關的),包括我自己整理的一份2018最新的大資料進階資料和高階開發教程,歡迎進階中和進想深入大資料的小夥伴。
 

V: 深度學習可以做哪些其他程式做不到的事情?

 

S: 編寫程式非常耗費人力。在過去,計算機是如此之慢,記憶體非常昂貴,所以人們採用邏輯,這就是計算機的工作原理。這是他們處理資訊的基本機器語言。當時計算機太慢了,而且計算成本很高。

 

但現在,計算越來越便宜,勞動力也越來越昂貴。而且計算成本變得如此低,以至於讓計算機學習比讓人類編寫程式更有效率。這時,深度學習就可以開始解決以前在計算機視覺和翻譯等領域沒有人編寫過程式的問題。

 

深度學習是計算密集型的,但只需編寫一個程式,並通過提供不同的資料集,你就可以解決不同的問題。你不必是領域專家。因此,對於存在大量資料的任何事物,都有成千上萬的應用程式。

 

V: “深度學習”現在似乎無處不在。它是如何變得如此流行的呢?

 

S: 我可以在歷史上的特定時刻確定這一點,即2012年12月的NIPS會議,也是最大的AI會議。在那裡,電腦科學家Geoff Hinton和他的兩個研究生向大家展示了一個名為ImageNet的大資料集,包含10,000個類別和1000萬個影象,並使用深度學習將分類錯誤減少20%。

 

以往在該資料集上,分類錯誤在一年內減少不到1%。而那一年的成果超過了20年的研究。

 

V: 深度學習的靈感來自大腦。那麼這些領域——電腦科學和神經科學——如何協同工作呢?

 

S: 深度學習的靈感來自神經科學。最成功的深度學習網路是由Yann LeCun發明的卷積神經網路(CNN)。

 

如果你看一下CNN的架構,它不僅僅是包括很多單元,它們以一種模仿大腦的基本方式連線起來。仔細觀察就會發現CNN結構裡有和大腦中簡單細胞和複雜細胞的對應的部分,而這些都直接來自我們對視覺系統的理解。

 

Yann沒有盲目地試圖複製皮質。他嘗試了許多不同的變化,但他最終聚合的是那些自然聚合的變化。這是我們瞭解到的很重要的內容。自然與人工智慧的融合有很多東西可以教給我們,在這方面我們有很長的路要走。

 

V: 我們對電腦科學的理解取決於我們對大腦的理解程度?

 

S: 我們目前的大部分AI都是基於60年代時對大腦的瞭解。我們現在瞭解的遠不止此,所以將會有更多的知識被融入到架構中。

 

AlphaGo,擊敗Go冠軍的程式不僅包括皮質模型,還包括大腦的一部分模型,稱為基底神經節,這對於制定一系列決策來實現目標非常重要。有一種稱為時序差分學習(temporal differences)的演算法,由Richard Sutton在80年代開發,當與深度學習相結合時,能夠勝任人類以前從未見過的非常複雜的遊戲。

 

當我們瞭解大腦的結構時,當我們開始瞭解如何將它們整合到人工系統中時,它將提供越來越多的功能,超越我們現在的狀態。

 

V: 人工智慧也會影響神經科學嗎?

 

S: 兩個學科在分別做努力。創新神經技術已經取得了巨大的進步,從一次記錄一個神經元到同時記錄了數千個神經元,並且同時記錄大腦的不同部分。這開闢了一個全新的世界。

 

人工智慧與人類智慧之間存在著一種趨同。我們越來越多地瞭解大腦如何工作,而這將反映在AI中。但與此同時,AI的研究者也創造了一整套學習理論,可用於理解大腦,讓我們分析成千上萬的神經元以及他們的活動是如何產生的。所以神經科學和人工智慧之間存在這種反饋迴圈,我認為這更令人興奮和重要。

 

V: 從自動駕駛汽車到交易,你覺得哪個區域最有趣?

 

S: 使我感到震撼的一個應用是生成對抗網路,或被稱為GAN(generative adversarial networks)。使用傳統的神經網路,你給出一個輸入,你得到一個輸出。而GAN能夠在沒有輸入的情況下得到輸出。

 

V: 他們真的會產生看似現實的新事物?

 

從某種意義上說,它們會產生內部活動。事實證明這是大腦運作的方式。你可以看到一些東西,然後你可以閉上眼睛,你可以開始想象那裡沒有的東西。你有一個視覺影象,當事情安靜時,你會有想法。那是因為你的大腦是生成性的。現在,這種新型網路可以生成從未存在過的新模式。所以你可以給它,例如,數百張汽車影象,它會建立一個內部結構,這個結構可以生成從未存在的汽車的新影象,它們看起來完全像汽車。

 

V: 另一方面,你認為哪些想法可能會被過度炒作?

 

S: 沒有人可以預測或想象這種新技術的引入會對未來的事物組織方式產生什麼影響。當然,現在的確存在過度宣傳。畢竟我們還沒有解決真正困難的問題。人們說機器人即將取代我們,但事實是我們都還沒有實現通用人工智慧,而機器人遠遠落後於AI,因為事實證明人的身體比大腦更復雜。

 

我來舉一個技術進步的例子:鐳射。它是在大約50年前發明的,當時鐳射可以佈滿整個房間。從鐳射佈滿一個房間到被做成講課時用的鐳射筆,這需要50年的技術商業化。這個技術必須發展到你可以縮小鐳射並以五美元的價格買到它。同樣的事情將發生在像自動駕駛汽車這樣被熱炒的技術上。我們不能說自動駕駛汽車到明年就會無處不在,10年也不一定做得到,甚至可能需要花費50年。但重點是,在此過程中技術會逐漸進步,這將使自動駕駛車輛更靈活,更安全,更相容我們組織運輸網路的方式。

 

炒作的錯誤在於人們對時間估計的錯誤,大家對技術的期待過多、過心急了。技術的發展急不得,但是它會在適當的時候達到我們的期待。

在這裡我還是要推薦下我自己建的大資料學習交流裙:805127855, 裙 裡都是學大資料開發的,如果你正在學習大資料 ,小編歡迎你加入,大家都是軟體開發黨,不定期分享乾貨(只有大資料開發相關的),包括我自己整理的一份2018最新的大資料進階資料和高階開發教程,歡迎進階中和進想深入大資料的小夥伴。