1. 程式人生 > >打臉!2018年深度學習發展速度被嚴重高估

打臉!2018年深度學習發展速度被嚴重高估

打臉!2018年深度學習發展速度被嚴重高估

 

https://mp.weixin.qq.com/s/JaqEbgcJA0VCyL6Zt_xUgg

 

 

策劃編輯 | Debra

作者 | Carlos E. Perez

譯者 | Sambodhi

編輯 | Natalie

 

導讀: 離 2019 年還剩不到 1 個月的時間了。這幾年來,每個年初本文作者Carlos E. Perez都對預測當年深度學習的趨勢做預測,到年底再對預測進行回顧,今年亦不例外。本文是他對 2018 年深度學習預測的回顧,目的是量化深度學習的快速發展。通過回顧預測,對比新的一年的進展,我們可以瞭解這個領域發展到底有多快。



本文將回顧我對 2018 年深度學習的預測,並對這一年的進展進行評論:

AI 前線注:

作者對 2018 年深度學習的預測可參閱《10 Alarming Predictions for Deep Learning in 2018》(《關於 2018 年的深度學習十大驚人預測》)

(https://medium.com/intuitionmachine/10-fearless-predictions-for-deep-learning-in-2018-bc74a88b11d9)

1. 多數深度學習硬體初創公司都將失敗

2018 年,深度學習硬體公司中,公開承認失敗的公司沒幾家(有一家公司已宣稱失敗:KnuEdge),但是它們都還沒有交付產品。有意思的是,儘管這些初創公司未能交付產品,卻仍然能夠籌集到更多的資金!

AI 前線注:

這裡有一份人工智慧硬體初創公司列表:

https://github.com/basicmi/AI-Chip-List

去年我的觀點是,深度學習初創公司將無法正確地估計自己可以為自己的潛在的客戶群提供多少可用軟體的成本。隨著深度學習堆疊變得越來越豐富、越來越複雜,初創公司還能迎頭趕上嗎?這是個疑問。

 

最大的失敗來自 Intel在 NIPS 2017 大會上,它們不是大張旗鼓地宣揚最終將提供矽片嗎?今年,它們的 Nervana 衍生產品是 MIA。它們是否能夠在明年春天之前推出 “Spring Crest”?讓我們拭目以待。

 

有多家初創公司都號稱自己有可用的矽片。深度學習人工智慧如此熱門,每個人都想 “發明” 自己的晶片

。簡單列舉一下,這些初創公司包括:GraphCore、Wave Computing、Groq、 Habana、Bitmain、Cabricon、Esperanto、Novumind、Gryfalcon、Hailo 和 Horizon。這還沒算上三星、ARM、Xilinx、高通和華為等傳統半導體制造商。另外有一個新情況是,現在傳統的雲服務供應商並不是購買 AI 晶片,而是研發自己的 AI 晶片:比如 Amazon 的 Inferentia、Microsoft 的 Brainwave、Facebook、阿里巴巴的 AliNPU 和百度的崑崙。晶片領域將很快就會變得擁擠起來!

 

現在的情況是,深度學習硬體由極其龐大且有能力的公司來主導:Nvidia 和 Google。雖然你無法得到 Google TPU2 的物理硬體,但你可以通過雲服務對 Google TPU2 進行虛擬訪問。相比之下,Nivida 提供了雲端計算(通過第三方雲服務供應商)和硬體的兩種可用選項。

 

能夠與這兩大巨頭進行競爭的供應商是 AMD。AMD 支援最新版本的 TensorFlow,並且擁有逐漸成熟的深度學習堆疊。與 Nvidia 和 Google 不同,它們缺少 Tensor 核心元件(即 Systolic Array(脈動陣列))。但對更為傳統的訓練和推理工作來說,AMD 的硬體效能可與 Nvidia 媲美。這聽上去可能會覺得沒什麼大不了的,但是你要知道,AMD 已經遙遙領先於任何其他初創公司的競爭對手。AMD 和 Nvidia 有著相似的規模經濟,因為它們的大部分矽片都是用於日常性用途(即遊戲、渲染、高效能運算等)。

 

老實說,這個領域有太多的追隨者。成熟的深度學習市場可能只支援不超過 3 個競爭對手。Nvidia 和 Google 早已鞏固它們在市場的地位,如此一來,就只剩下一個空位了!為了生存下去,公司必須使解決方案的部署儘可能簡單容易、暢行無阻。此外,每家公司必須讓自己的產品具有自己的特色——不要每家公司都去做影象處理!為了能夠有效地提供無縫體驗、同時建立起自己的市場定位,這些公司必須在軟體方面進行投資(順便說一句,我也正尋找硬體公司裡的相關職位)。

 

2. 元學習將成為新的 SGD

元學習(Meta-learning)還沒有取代 SGD(Stochastic Gradient Descent,隨機梯度下降),但以神經架構搜尋形式的元學習在這一領域中已經取得巨大的進步。本年的一個關鍵的進展與超網路(Hypernetwork)搜尋有關。請參閱 Medium 上的博文:

Deep Learning Architecture Search and the Adjacent Possible》(《深度學習架構搜尋及相鄰可能》)

https://medium.com/intuitionmachine/deep-learning-to-forget-or-not-forget-c8b7843479dd

 

我們在元學習中取得的另一個進步是在演算法方面,它的靈感來自於少量學習(few-shot learning)MAML。這催生了各種演算法:Reptile、PROMP 和 CAML。元學習方法需要大量的訓練資料,這是因為它是在各種各樣的任務中學習,而不僅僅是在不同的樣本中學習。它有兩個用於學習的迭代迴圈,一個是迭代任務的外部學習迴圈,一個是迭代訓練資料的內部迴圈。基於 MAML 的方法只考慮任務的初始化,因此不需要可比較相同型別的資料。

AI 前線注:

Reptile:https://blog.openai.com/reptile/

PROMP:https://arxiv.org/pdf/1810.06784.pdf

CAML:https://arxiv.org/pdf/1810.03642.pdf

 

 

我現在開始認為,無監督學習和元學習實際上是同一個問題。進化解決這個問題的方法是通過踏腳石(stepping stone )技能的發展。這意味著它完全取決於正在解決的問題的型別:是用於預測,自助控制,還是生成設計的無監督學習或元學習任務?每一種問題都需要不同的基本技能,因此可以訓練一個聚合的基本模型,而不是每一個任務都從頭訓練。引導是一種虛構的方法,它吸引了那些相信可以通過數學來拯救世界的研究人員。

AI 前線注:

關於作者提及的無監督學習和元學習實際是同一個問題,可參閱論文《Unsupervised Learning via Meta-learning》(《通過元學習進行無監督學習》)

https://arxiv.org/pdf/1810.02334.pdf

總而言之,在 2018 年看來最有前途的兩種元學習方法是進化啟發的架構搜尋和少量學習 MAML 方法。

 

3. 生成模型驅動一種新的建模方式

目前,生成模型仍然主要侷限於娛樂應用。當然,BigGAN 搜尋建立了很多噩夢般的影象,但不幸的是,使用高保真生成模型來取代標準計算方法的研究仍然在進行。

AI 前線注:

BigGAN 建立的影象可見:https://www.fastcompany.com/90244767/see-the-shockingly-realistic-images-made-by-googles-new-ai

DeepMind 研究蛋白質摺疊已有兩年,他們剛剛在 12 月份公佈了研究成果:

AlphaFold: Using AI for scientific discovery》(《AlphaFold:使用人工智慧進行科學發現》)

https://deepmind.com/blog/alphafold/

 

DeepMind 訓練了一個生成神經網路來編造新的蛋白質片段,這些蛋白質片段隨後被用來不斷提高所提議的蛋白質結構的得分。這是生成網路最令人印象深刻的用途之一,超越了影象、3D 結構或聲音的美學生成。

 

關於該領域的詳細資訊,請參閱 Medium 上的博文:

The Delusion of Infinite Precision Numbers》(《無窮精度數的迷惑》)

https://medium.com/intuitionmachine/the-delusion-of-infinite-precision-numbers-add501a1518d

 

4. 自我對決是一種自動化的知識創造

AlphaGo 引入的自我對決(Self-play)方法在應用程式使用方面上,並沒有深入人心。然而在研究中,OpenAI 的 Dota Five 已經證明,自我對決可以解決一個非常困難的 AI 問題(即,即時戰略遊戲)。阻止這種使用的主要障礙似乎是在這種場景中框架問題的困難,以及現實問題中存在的多種不確定性。

 

深度強化學習(Deep Reinforcement Learning)在 2018 年遭到了很多嚴厲的批評,但是 OpenAI 的 Ilya Stuskever 卻對 Dota Five 看似無限的深度強化學習可擴充套件性非常著迷,他比大多數人更早如此預測通用人工智慧,見 Medium 這篇博文:

Why AGI is Achievable in Five Years》(《為什麼通用人工智慧在五年內能夠實現》)

https://medium.com/intuitionmachine/near-term-agi-should-be-considered-as-a-possibility-9bcf276f9b16

 

儘管強化學習可擴充套件性得到了明顯的驗證,仍然有一些新論文對深度強化學習的穩健性提出了質疑,如論文《Are Deep Policy Gradient Algorithms Truly Policy Gradient Algorithms?》(《深度策略梯度演算法是否真的是策略梯度演算法?》https://arxiv.org/abs/1811.02553v2

 

我個人傾向於支援內在激勵方法而不是深度強化學習方法。原因在於,大多數難題的回報函式(reward)都是稀疏的,有些還具有欺騙性。

 

5. 直覺機器將縮小語義鴻溝

當 Yoshua Bengio 開始使用雙重過程理論(Dual Process theory)來解釋深度學習的侷限性時,你就知道他在正確的軌道上。

因此,深度學習機器就是人工直覺(Artificial intuition)的想法,在 2018 年已經成為主流。雖然,雙重過程理論是人類思維的一個很好的模型,但我們需要更充分地理解直覺思維的豐富性(System 1),直覺思維不僅僅是快速思考,也不僅僅是攤銷推理(Amortized inference)。人類大腦中有很多東西我們還沒有在深度學習中複製出來,請參閱 Medium 上的這篇博文:

Where is the Artificial Ingenuity in Deep Learning?》(《深度學習裡的人工智慧在何處?》)

https://medium.com/intuitionmachine/the-key-to-general-intelligence-is-the-mechanism-of-artificial-ingenuity-dad26bc99043

 

6. 可解釋性是無法實現的

現在的問題是,總體來說,我們在理解深度學習網路的本質方面並沒有取得任何進展。越來越多的和我們認知相悖的研究被髮布出來,打破了我們關於深度學習網路應該如何工作的理論。DeepMind 就丟擲了一個打破認知的“破壞性”研究成果:

Deep Learning’s Uncertainty Principle》(《深度學習的不確定性原理》)

https://medium.com/intuitionmachine/deep-learnings-uncertainty-principle-13f3ffdd15ce

接著就是神經網路的對抗性重程式設計(Adversarial Reprogramming),論文《Adversarial Reprogramming of Neural Networks》(《神經網路的對抗性重程式設計》https://arxiv.org/abs/1806.11146)證明了可以使用對抗特徵來對神經網路進行重程式設計。在論文中他們演示瞭如何破壞在 Imagenet 中訓練的 MNIST 分類網路:

 

神經網路內部發生了什麼,我們對其的理解仍然是遠遠不夠的。

 

至於如何做出直觀的解釋,我認為這仍然是一個“富饒”的領域,還需要進行更多的研究。2018 年是暴露出許多深度學習侷限性的一年,在這一年裡,我們在開發更好的人機介面方面的進展並不大。請參閱 Medium 的這篇博文:

Fake Intuitive Explanations in AI》(《人工智慧中虛假直覺的解釋》)

https://medium.com/intuitionmachine/achieving-fake-explanations-in-ai-5e63b289a3ef

 

7. 深度學習研究資訊氾濫成災

今年,關於深度學習的論文數量翻了一番。更槽糕的是,審稿人的素質卻在急劇下降。因此,雜訊比已跌至谷底。現在,每個人都需要在堆積如山的新研究論文中為自己篩選出真正有價值的研究。有些工具,如 SemanticScholar、Arxiv Sanity 和 Brundage Bot 等論文網站都可以用來幫助你瞭解其中的大量資訊。只是那些真正新穎的發現,卻太容易成為 “漏網之魚”,讓人錯過。

 

8. 通過教學環境實現工業化

深度學習在工業化方面,並沒有進展

2018 年是人工智慧結盟問題變得更加清晰的一年。

人工智慧結盟對人工智慧教學環境至關重要。目前有幾個團隊已經發布了他們的框架,這些框架可以在強化學習實驗中提供更好的再現性(參見:Facebook Horizon、OpenAI Baselines、DeepMind TRFL)。

AI 前線注:

Facebook Horizon:https://code.fb.com/ml-applications/horizon/

OpenAI Baselines:https://github.com/openai/baselines

DeepMind TRFL:https://deepmind.com/blog/trfl/

我們已經目睹了遷移學習從虛擬環境到真實環境的進展(參見:OpenAI Learning Dexterity,(https://blog.openai.com/learning-dexterity/))。我們還見證了通過稀疏回報來教授複雜技能的進展,請參閱 Medium 上的這篇博文:

How to Bootstrap Complex Skills with Unknown Rewards》(《如何使用未知回報引導複雜技能》)

https://medium.com/intuitionmachine/how-to-learn-complex-skills-with-unknown-rewards-27a105429e6b

 

9. 會話認知

我最終描繪了一幅如何獲得會話認知更為清晰的路線圖。不幸的是,表中提到的“達到第三階段”意味著必須完成這份列表中的第 5 項,而這在未來幾年內不太可能發生。因此,在未來幾年內人們不大可能會獲得會話認知。唯一的好處就是,這種認知概念已經被認可。也就是說,它已成為一個已知的未知。

 

AI 前線注:

作者提到的路線圖,參閱:https://medium.com/intuitionmachine/conversational-cognition-a-new-approach-to-agi-95486ffe581f

要了解其中的重要發展節點,參閱:

A New Capability Maturity Model for Deep Learning》(《一種新的深度學習能力成熟度模型》)

https://medium.com/intuitionmachine/an-advanced-capability-maturity-level-for-artificial-general-intelligence-b300dafaca3f

 

10. 人工智慧的道德應用

人們終於意識到這個問題了!最值得注意的是,美國加利福尼亞州議會要求,聊天機器人必須主動宣告它們不是人類。

法國人感到驚慌失措,於是制定了 “人類的人工智慧”(AI for Humanity)計劃,有關詳情,請參見 Medium 這篇博文:

Six Months Later, France has Formulated their Deep Learning Strategy》(《六個月後,法國制定了深度學習戰略》)

https://medium.com/intuitionmachine/six-months-later-france-has-released-their-deep-learning-strategy-d2cbf18927d

在人工智慧武器化方面上,許多公司也已經劃清了界限:

Drawing the Ethical Line on Weaponized Deep Learning Research》(《為深度學習研究武器化劃定道德底線》)

https://medium.com/intuitionmachine/drawing-the-ethical-line-on-weaponized-a-i-research-316e865e9d18

當然,問題在於,我們的經濟體系更傾向於給人工智慧賦予“人格”,而不是“製造”真正的人類。詳情請參閱 Medium 這篇博文:

Artificial Personhood is the Root Cause Why A.I. is Dangerous to Society》(《人工人格是人工智慧危害社會的根本原因》)

 

最終,對於人工智慧研究人員來說,他們必須決定自己是想一輩子向孩子們出售糖水呢,還是做一些真正有意義的事情,請參閱 Medium 上的這篇博文:

Is the Purpose of Artificial Intelligence to Sell Sugar Water?》(《人工智慧的目的是出售糖水麼?》)

https://medium.com/intuitionmachine/is-the-purpose-of-ai-to-sell-sugar-water-e6466d574ec0

 

結   語

總之,回顧 2018 年,對於我年初做出的預測,現在看來,很多都做過了頭。

鑑於此,我必須降低對 2019 年的期望。

我們開始意識到,在指定回報函式並基於這些回報進行優化的整個機器學習正規化中,存在著重大的複雜性問題。這種學習正規化只會讓你的系統學會利用回報函式。很多時候,儘管看似取得了明顯的進展,但底層系統學會的往往只是在測試中作弊。這是一個元級別的問題,不可能一蹴而就。在提高課程學習質量方面,我們充其量只能取得漸進式的進步。

Fooled by the Ungameable Objective》(《不可玩目標的愚弄》)

https://medium.com/intuitionmachine/the-illusion-of-the-ungameable-objective-538a96a53efe

AI 前線注:其中 “Ungameable” 是作者生造的詞,用來形容一套沒有任何漏洞的規則。譯者進行了意譯。

 

請繼續關注我對 2019 年的深度學習預測。

原文連結:

https://medium.com/intuitionmachine/2018-retrospective-on-deep-learning-predictions-1cea68825bb3