1. 程式人生 > >AI技術說:人工智慧相關概念與發展簡史

AI技術說:人工智慧相關概念與發展簡史

作為近幾年的一大熱詞,人工智慧一直是科技圈不可忽視的一大風口。隨著智慧硬體的迭代,智慧家居產品逐步走進千家萬戶,語音識別、影象識別等AI相關技術也經歷了階梯式發展。如何看待人工智慧的本質?人工智慧的飛速發展又經歷了哪些歷程?本文就從技術角度為大家介紹人工智慧領域經常提到的幾大概念與AI發展簡史。

一、人工智慧相關概念

1、人工智慧(Artifical Intelligence, AI):就是讓機器像人一樣的智慧、會思考,
是機器學習、深度學習在實踐中的應用。人工智慧更適合理解為一個產業,泛指生產更加智慧的軟體和硬體,人工智慧實現的方法就是機器學習。


2、資料探勘:資料探勘是從大量資料中提取出有效的、新穎的、有潛在作用的、可信的、並能最終被人理解模式(pattern)的非平凡的處理過程。

資料探勘利用了統計、機器學習、資料庫等技術用於解決問題;資料探勘不僅僅是統計分析,而是統計分析方法學的延伸和擴充套件
,很多的挖掘演算法來源於統計學。

3、機器學習:專門研究計算機怎樣模擬或實現人類的學習行為,以獲取新的知識或技能,機器學習是對能通過經驗自動改進的計算機演算法的研究。


機器學習是建立在資料探勘技術之上發展而來,只是資料探勘領域中的一個新興分支與細分領域,只不過基於大資料技術讓其逐漸成為了當下顯學和主流。它是人工智慧的核心,是使計算機具有智慧的根本途徑,其應用遍及人工智慧的各個領域。


4、深度學習(Deep Learning):是相對淺層學習而言的,是機器學習研究中的一個新的領域,其動機在於建立、模擬人腦進行分析學習的神經網路。它模仿人腦的機制來解釋資料,例如影象,聲音和文字。深度學習的概念源於人工神經網路的研究。深度學習通過組合低層特徵形成更加抽象的高層表示屬性類別或特徵,以發現數據的分散式特徵表示。

到了當下,經過深度學習技術訓練的機器在識別影象方面已不遜於人類,比如識別貓、識別血液中的癌細胞特徵、識別MRI掃描圖片中的腫瘤。在谷歌AlphaGo學習圍棋等等領域,AI已經超越了人類目前水平的極限。

為了方便大家理解,我們將上文提到的四個概念的關係用下圖表示。需要注意的是,圖示展現的只是一種大致的從屬關係,其中資料探勘與人工智慧並不是完全的包含關係。


二、人工智慧發展歷史


(圖片來源於網路)

由圖可以明顯看出Deep Learning從06年崛起之前經歷了兩個低谷,這兩個低谷也將神經網路的發展分為了幾個不同的階段,下面就分別講述這幾個階段。

1、 第一代神經網路(1958-1969)

最早的神經網路的思想起源於1943年的MP人工神經元模型,當時是希望能夠用計算機來模擬人的神經元反應的過程,該模型將神經元簡化為了三個過程:輸入訊號線性加權,求和,非線性啟用(閾值法)。如下圖所示:


1958年Rosenblatt發明的感知器(perceptron)演算法。該演算法使用MP模型對輸入的多維資料進行二分類,且能夠使用梯度下降法從訓練樣本中自動學習更新權值。1962年,該方法被證明為能夠收斂,理論與實踐效果引起第一次神經網路的浪潮。

1、 第二代神經網路(1986~1998)

第一次打破非線性詛咒的當屬現代Deep Learning大牛Hinton,其在1986年發明了適用於多層感知器(MLP)的BP演算法,並採用Sigmoid進行非線性對映,有效解決了非線性分類和學習的問題。該方法引起了神經網路的第二次熱潮。

1989年,Robert Hecht-Nielsen證明了MLP的萬能逼近定理,即對於任何閉區間內的一個連續函式f,都可以用含有一個隱含層的BP網路來逼近該定理的發現極大的鼓舞了神經網路的研究人員。

同年,LeCun發明了卷積神經網路-LeNet,並將其用於數字識別,且取得了較好的成績,不過當時並沒有引起足夠的注意。

值得強調的是在1989年以後由於沒有特別突出的方法被提出,且神經網路(NN)一直缺少相應的嚴格的數學理論支援,神經網路的熱潮漸漸冷淡下去。

1997年,LSTM模型被髮明,儘管該模型在序列建模上的特性非常突出,但由於正處於NN的下坡期,也沒有引起足夠的重視。

3、統計學建模的春天(1986~2006)

1986年,決策樹方法被提出,很快ID3,ID4,CART等改進的決策樹方法相繼出現。

1995年,線性SVM被統計學家Vapnik提出。該方法的特點有兩個:由非常完美的數學理論推導而來(統計學與凸優化等),符合人的直觀感受(最大間隔)。不過,最重要的還是該方法線上性分類的問題上取得了當時最好的成績。

1997年,AdaBoost被提出,該方法是PAC(Probably Approximately Correct)理論在機器學習實踐上的代表,也催生了整合方法這一類。該方法通過一系列的弱分類器整合,達到強分類器的效果。

2000年,KernelSVM被提出,核化的SVM通過一種巧妙的方式將原空間線性不可分的問題,通過Kernel對映成高維空間的線性可分問題,成功解決了非線性分類的問題,且分類效果非常好。至此也更加終結了NN時代。

2001年,隨機森林被提出,這是整合方法的另一代表,該方法的理論紮實,比AdaBoost更好的抑制過擬合問題,實際效果也非常不錯。

2001年,一種新的統一框架-圖模型被提出,該方法試圖統一機器學習混亂的方法,如樸素貝葉斯,SVM,隱馬爾可夫模型等,為各種學習方法提供一個統一的描述框架。

4、快速發展期(2006~2012)

2006年,深度學習(DL)元年。是年,Hinton提出了深層網路訓練中梯度消失問題的解決方案:無監督預訓練對權值進行初始化+有監督訓練微調。其主要思想是先通過自學習的方法學習到訓練資料的結構(自動編碼器),然後在該結構上進行有監督訓練微調。但是由於沒有特別有效的實驗驗證,該論文並沒有引起重視。

2011年,ReLU啟用函式被提出,該啟用函式能夠有效的抑制梯度消失問題。

2011年,微軟首次將DL應用在語音識別上,取得了重大突破。

5、爆發期(2012~至今)

2012年,Hinton課題組為了證明深度學習的潛力,首次參加ImageNet影象識別比賽,其通過構建的CNN網路AlexNet一舉奪得冠軍,且碾壓第二名(SVM方法)的分類效能。也正是由於該比賽,CNN吸引到了眾多研究者的注意。

AlexNet的創新點:

(1)首次採用ReLU啟用函式,極大增大收斂速度且從根本上解決了梯度消失問題;

(2)由於ReLU方法可以很好抑制梯度消失問題,AlexNet拋棄了“預訓練+微調”的方法,完全採用有監督訓練。也正因為如此,DL的主流學習方法也因此變為了純粹的有監督學習;

(3)擴充套件了LeNet5結構,新增Dropout層減小過擬合,LRN層增強泛化能力/減小過擬合;

(4)首次採用GPU對計算進行加速。

結語:作為21世紀最具影響力的技術之一,人工智慧不僅僅在下圍棋、資料探勘這些人類原本不擅長的方面將我們打敗,還在影象識別、語音識別等等領域向我們發起挑戰。如今,人工智慧也在與物聯網、量子計算、雲端計算等等諸多技術互相融合、進化,以超乎我們想象的速度發展著。而這一切的發生與演變,只用了幾十年的時間……