1. 程式人生 > >當深度學習成為過去,遷移學習才是真正的未來?

當深度學習成為過去,遷移學習才是真正的未來?

NIPS 2016:吳恩達表示,“在繼深度學習之後,遷移學習將引領下一波機器學習技術。

大牛吳恩達曾經說過:做 AI 研究就像造宇宙飛船,除了充足的燃料之外,強勁的引擎也是必不可少的。假如燃料不足,則飛船就無法進入預定軌道。而引擎不夠強勁,飛船甚至不能升空。類比於 AI,深度學習模型就好像引擎,海量的訓練資料就好像燃料,這兩者對於 AI 而言同樣缺一不可。在訓練深度神經網路、學習輸入到輸出的精準對映上,近年來大家做得越來越好。不管是針對影象、語句,還是標籤預測,有了大量做過標記的樣例,都已不再是難題。

但是!今天的深度學習演算法仍然欠缺的,是在新情況(不同於訓練集的情況)上的泛化能力和訓練模型所必須的海量資料難以獲取。

一、深度學習的侷限性

在深度學習熱火朝天,全民深度的時候說深度學習的壞話,而且對於那些沒有看完本文的標題黨,會不會打我。但是我還是要鼓足勇氣說一下深度學習目前面臨的困難:

  1. 表達能力的限制。因為一個模型畢竟是一種現實的反映,等於是現實的映象,它能夠描述現實的能力越強就越準確,而機器學習都是用變數來描述世界的,它的變數數是有限的,深度學習的深度也是有限的。另外它對資料的需求量隨著模型的增大而增大,但現實中有那麼多高質量資料的情況還不多。所以一方面是資料量,一方面是資料裡面的變數、資料的複雜度,深度學習來描述資料的複雜度還不夠複雜。

  2. 缺乏反饋機制。目前深度學習對影象識別、語音識別等問題來說是最好的,但是對其他的問題並不是最好的,特別是有延遲反饋的問題,例如機器人的行動,AlphaGo 下圍棋也不是深度學習包打所有的,它還有強化學習的一部分,反饋是直到最後那一步才知道你的輸贏。還有很多其他的學習任務都不一定是深度學習才能來完成的。

  3. 模型複雜度高。以下是一些當前比較流行的機器學習模型和其所需的資料量,可以看到隨著模型複雜度的提高,其引數個數和所需的資料量也是驚人的。

OK,從上面的闡述,我們可以得出目前傳統的機器學習方法(包括深度學習)三個待解決的關鍵問題:

  1. 隨著模型複雜度的提高,引數個數驚人。

  2. 在新情況下模型泛化能力有待提高。

  3. 訓練模型的海量的標記費時且昂貴。

  4. 表達能力有限且缺乏反饋機制。

遷移學習幫你搞定一切,讓你的模型小而輕,還能舉一反三!

二、到底什麼是遷移學習?

"你永遠不能理解一種語言——除非你至少理解兩種語言"。

任何一個學過第二語言的人,對英國作家傑弗裡·威廉斯的這句話應該都會"感同身受"。但為什麼這樣說呢?其原因在於學習使用外語的過程會不可避免地加深一個人對其母語的理解。事實上,歌德也發現這一理念的強大威力,以至於他不由自主地做出了一個與之類似但更為極端的斷言:

"一個不會外語的人對其母語也一無所知"。

這種說法極為有趣,但令人驚訝的是恐怕更在於其實質——對某一項技能或心理機能的學習和精進能夠對其他技能或心理機能產生積極影響——這種效應即為遷移學習。它不僅存在於人類智慧,對機器智慧同樣如此。如今,遷移學習已成為機器學習的基礎研究領域之一,且具有廣泛的實際應用潛力。

一些人也許會很驚訝,計算機化的學習系統怎樣能展現出遷移學習的能力。Google 通過一項涉及兩套機器學習系統的實驗來思考了這個問題,為了簡單起見,我們將它們稱為機器 A 和機器 B。機器 A 使用全新的 DNN,機器 B 則使用已經接受訓練並能理解英語的 DNN。現在,假設我們用一組完全相同的普通話錄音及對應文字來對機器 A 和 B 進行訓練,大家覺得結果會怎樣?令人稱奇的是,機器 B(曾接受英語訓練的機器)展現出比機器 A 更好的普通話技能,因為它之前接受的英語訓練將相關能力遷移到了普通話理解任務中

不僅如此,這項實驗還有另一個令人更為驚歎的結果:機器 B 不僅普通話能力更高,它的英語理解能力也會提高!看來威廉斯和歌德確實說對了一點——學習第二語言確實能夠加深對兩種語言的理解,即使機器也不例外。

其實這就是計算機化的遷移學習。然而在我們身邊,遷移學習的例子太多太多,一個精通吉他的人會比那些沒有音樂基礎的人能更快地學習鋼琴;一個會打乒乓球的人比沒有經驗的人更容易接受網球;會騎自行車的人能更快學習騎電動車,等等,遷移學習就在你身邊。

三、遷移學習和傳統機器學習的差別

在機器學習的經典監督學習場景中,如果我們要針對一些任務和域 A 訓練一個模型,我們會假設被提供了針對同一個域和任務的標籤資料(也就是說訓練集和測試集的資料必須是iid的,即獨立同分布)。我們可以在下圖中清楚地看到這一點,其中我們的模型 A 在訓練資料和測試資料中的域和任務都是一樣的(後面我會詳細地定義什麼是任務(task),以及什麼是域(domain))。

現在我們可以在這個資料集上訓練一個模型 A,並期望它在同一個任務和域中的未知資料上表現良好。在另一種情況下,當給定一些任務或域 B 的資料時,我們還需要可以用來訓練模型 B 的有標籤資料,這些資料要屬於同一個任務和域,這樣我們才能預期能在這個資料集上表現良好。

但是,現實往往很殘酷,當我們沒有足夠的來自於我們關心的任務或域的標籤資料來訓練可靠的模型時(新的標籤資料很難獲取,或者很費時),傳統的監督學習正規化就支援不了了。

但傳統的監督學習方法也會失靈——在缺乏某任務/領域標記資料的情況下,它往往無法得出一個可靠的模型。舉個例子,如果我們想要訓練出一個模型,對夜間的行人影象進行監測,我們可以應用一個相近領域的訓練模型——白天的行人監測。理論上這是可行的。但實際上,模型的表現效果經常會大幅惡化,甚至崩潰。這很容易理解,模型從白天訓練資料獲取了一些偏差,不知道怎麼泛化到新場景。

如果我們想要執行全新的任務,比如監測自行車騎手,重複使用原先的模型是行不通的。這裡有一個很關鍵的原因:不同任務的資料標籤不同。但是遷移學習就允許我們通過借用已經存在的一些相關的任務或域的標籤資料來處理這些場景,充分利用相近任務/領域的現有資料我們嘗試著把在源域中解決源任務時獲得的知識儲存下來,並將其應用在我們感興趣的目標域中的目標任務上去,如下圖所示。

四、遷移學習的概念、定義及分類

1.遷移學習的基本概念:域和任務,源和目標

一個域 D 由一個特徵空間 X 和特徵空間上的邊際概率分佈 P(X) 組成,其中 X=x1,…, xn∈X。對於有很多詞袋錶徵(bag-of-words representation)的文件分類,X 是所有文件表徵的空間,xi 是第 i 個單詞的二進位制特徵,X 是一個特定的文件。對我來說,通俗的理解就是域 D 就是特徵的空間及分佈。

給定一個域 D=,一個任務 T 由一個標籤空間 y 以及一個條件概率分佈 P(Y|X)構成,這個條件概率分佈通常是從由特徵——標籤對 xi∈X,yi∈Y 組成的訓練資料中學習得到。在我們的文件分類的例子中,Y 是所有標籤的集合(即真(True)或假(False)),yi 要麼為真,要麼為假。

源域 Ds,一個對應的源任務 Ts,還有目標域 Dt,以及目標任務 Tt,這個就很好理解了,源就是對應的我們的訓練集,目標就是對應我們的測試集。

2.遷移學習的定義:

在 Ds≠Dt 和/或 Ts≠Tt 的情況下,讓我們在具備來源於 Ds 和 Ts 的資訊時,學習得到目標域 Dt 中的條件概率分佈 P(Yt|Xt)。絕大多數情況下,假設可以獲得的有標籤的目標樣本是有限的,有標籤的目標樣本遠少於源樣本。

3.遷移學習的分類:

  1. XS≠XT,即源域和目標域的特徵空間不同,舉個例子,文件是用兩種不同的語言寫的。在自然語言處理的背景下,這通常被稱為跨語言適應(cross-lingual adaptation),我們將這種情況稱為異構遷移學習(Heterogeneous TL)。

  2. XS=XT,即源域和目標域的特徵空間相同,稱為同構遷移學習(Homogenrous TL)

  3. P(Xs)≠P(Xt),源域和目標域的邊際概率分佈不同,例如,兩個文件有著不同的主題。這種情況通常被稱為域適應(domain adaptation)。

  4. P(Ys|Xs)≠P(Yt|Xt),源任務和目標任務的條件概率分佈不同,例如,兩個不同資料集的標籤規則是不一樣的。

  5. YS≠YT,兩個任務的標籤空間不同,例如源域是二分類問題,目標域是 4 分類問題,因為不同的任務擁有不同的標籤空間,但是擁有相同的條件概率分佈,這是極其罕見的。

借用一張之前自己做的幻燈片:

4.遷移學習的四種常見解決方法:

四種方法分別為:基於樣本的遷移學習、基於特徵的遷移學習、基於引數/特徵的遷移學習和基於關係的遷移學習。

(1) 基於樣本的遷移學習

第一種為樣本遷移,就是在資料集(源領域)中找到與目標領域相似的資料,把這個資料的權值進行調整,使得新的資料與目標領域的資料進行匹配(將分佈變成相同)。樣本遷移的特點是:1)需要對不同例子加權;2)需要用資料進行訓練,上圖的例子就是找到源領域的例子 3,然後加重該樣本的權值,使得在預測目標領域時的比重加大。

(2) 基於特徵的遷移學習

第二種為特徵遷移,就是通過觀察源領域影象與目標域影象之間的共同特徵,然後利用觀察所得的共同特徵在不同層級的特徵間進行自動遷移,上圖左側的例子就是找當兩種狗在不同層級上的共同特徵,然後進行預測。

(3) 基於引數/模型的遷移學習

第三種為模型遷移,其原理時利用上千萬的狗狗圖象訓練一個識別系統,當我們遇到一個新的狗狗圖象領域,就不用再去找幾千萬個圖象來訓練了,可以原來的影象識別系統遷移到新的領域,所以在新的領域只用幾萬張圖片同樣能夠獲取相同的效果。模型遷移的一個好處是我們可以區分,就是可以和深度學習結合起來,我們可以區分不同層次可遷移的度,相似度比較高的那些層次他們被遷移的可能性就大一些。

(4) 基於關係的遷移學習

這種關係的遷移,我研究的較少,定義說明是可以將兩個相關域之間的相關性知識建立一個對映,例如源域有皇帝、皇后,那麼就可以對目標域的男和女之間建立這種關係,一般用在社會網路,社交網路之間的遷移上比較多。

五、遷移學習到底可以解決哪些問題

遷移學習主要可以解決兩大類問題:小資料問題和個性化問題。

小資料問題:比方說我們新開一個網店,賣一種新的糕點,我們沒有任何的資料,就無法建立模型對使用者進行推薦。但使用者買一個東西會反應到使用者可能還會買另外一個東西,所以如果知道使用者在另外一個領域,比方說賣飲料,已經有了很多很多的資料,利用這些資料建一個模型,結合使用者買飲料的習慣和買糕點的習慣的關聯,我們就可以把飲料的推薦模型給成功地遷移到糕點的領域,這樣,在資料不多的情況下可以成功推薦一些使用者可能喜歡的糕點。這個例子就說明,我們有兩個領域,一個領域已經有很多的資料,能成功地建一個模型,有一個領域資料不多,但是和前面那個領域是關聯的,就可以把那個模型給遷移過來。

個性化問題:比如我們每個人都希望自己的手機能夠記住一些習慣,這樣不用每次都去設定它,我們怎麼才能讓手機記住這一點呢?其實可以通過遷移學習把一個通用的使用者使用手機的模型遷移到個性化的資料上面。我想這種情況以後會越來越多。

六、遷移學習的應用

1. 我到底是什麼顏色?

大家一看這幅圖就知道,這裡以此前網上流行的一個連衣裙圖片為例。如圖所示,如果你想通過深度學習判斷這條裙子到底是藍黑條紋還是白金條紋,那就必須收集大量的包含藍黑條紋或者白金條紋的裙子的影象資料。參考上文提到的問題規模和引數規模之間的對應關係,建立這樣一個精準的影象識別模型至少需要 140M 個引數,1.2M 張相關的影象訓練資料,這幾乎是一個不可能完成的任務。

現在引入遷移學習,用如下公式可以得到在遷移學習中這個模型所需的引數個數:

No. of parameters = [Size(inputs) 1] [Size(outputs) 1] = [2048 1][1 1]~ 4098parameters

可以看到,通過遷移學習的引入,針對同一個問題的引數個數從**140M 減少到了 4098**,減少了 10 的 5 次方個數量級!這樣的對引數和訓練資料的消減程度是驚人的。

這裡給大家介紹一個遷移學習的工具 NanoNets,它是一個簡單方便的基於雲端實現的遷移學習工具,其內部包含了一組已經實現好的預訓練模型,每個模型有數百萬個訓練好的引數。使用者可以自己上傳或通過網路搜尋得到資料,NanoNets 將自動根據待解問題選擇最佳的預訓練模型,並根據該模型建立一個 NanoNets(納米網路),並將之適配到使用者的資料。以上文提到的藍黑條紋還是白金條紋的連衣裙為例,使用者只需要選擇待分類的名稱,然後自己上傳或者網路搜尋訓練資料,之後 NanoNets 就會自動適配預訓練模型,並生成用於測試的 web 頁面和用於進一步開發的 API 介面。如下所示,圖中為系統根據一張連衣裙圖片給出的分析結果。具體使用方法詳見 NanoNets 官網:http://nanonets.ai/ 。

2. Deepmind 的作品 progressive neural network(機器人)

Google 的 Deepmind 向來是大家關注的熱點,就在去年,其將三個小遊戲 Pong, Labyrinth, Atari 通過將已學其一的遊戲的 parameter 通過一個 lateral connection feed 到一個新遊戲。外牆的可以看 youtub 的視訊:https://www.youtube.com/watch?v=aWAP_CWEtSI,與此同時,DeepMind 最新的成果 Progressive Neural Networks終於伸向真正的機器人了!

它做了什麼事情呢?就是在模擬環境中訓練一個機械臂移動,然後訓練好之後,可以把知識遷移到真實的機械臂上,真實的機械臂稍加訓練也可以做到和模擬一樣的效果!視訊在這:https://www.youtube.com/watch?v=YZz5Io_ipi8

3. 輿情分析

遷移學習也可應用在輿情分析中,如使用者評價方面。以電子產品和視訊遊戲留言為例,上圖中綠色為好評標籤,而紅色為差評標籤。我們可以從上圖左側的電子產品評價中找到特徵,促使它在這個領域(電子產品評價)建立模型,然後利用模型把其遷移到視訊遊戲中。這裡可以看到,輿情也可以進行大規模的遷移,而且在新的領域不需要標籤。

4. 個性化對話

訓練一個通用型的對話系統,該系統可能是閒聊型,也可能是一個任務型的。但是,我們可以根據在特定領域的小資料修正它,使得這個對話系統適應不同任務。比如,一個使用者想買咖啡,他並不想回答所有繁瑣的問題,例如是要大杯小杯,熱的冷的?

5. 基於遷移學習的推薦系統

線上推薦系統中利用遷移學習,可以在某個領域做好一個推薦系統,然後應用在稀疏的、新的垂直領域。(影像資料——>書籍資料)

6. 遷移學習在股票中的預測

香港科技大學楊強教授的學生就把遷移學習應用到大家公認的很難的領域中——預測股市走勢。下圖所示為 A 股裡面的某個股票,用過去十年的資料訓練該模型。首先,運用資料之間的連線,產生不同的狀態,讓各個狀態之間能夠互相遷移。其次,不同狀態之間將發生變化,他們用了一個強化學習器模擬這種變化。最後,他們發現深度學習的隱含層裡面會自動產生幾百個狀態,基本就能夠對這十年來的經濟狀況做出一個很完善的總結。

楊強教授也表示,這個例子只是在金融領域的一個小小的試驗。不過,一旦我們對一個領域有了透徹的瞭解,並掌握更多的高質量資料,就可以將人工智慧技術遷移到這個領域來,在應用過程中對所遇到的問題作清晰的定義,最終能夠實現通用型人工智慧的目的。

遷移學習的應用越來越廣泛,這裡僅僅介紹了冰山一角,例如生物基因檢測、異常檢測、疾病預測、影象識別等等。

七、風頭正勁的遷移學習

當今全世界都在推動遷移學習,當今 AAAI 中大概有 20 多篇遷移學習相關文章,而往年只有五六篇。與此同時,如吳恩達等深度學習代表人物也開始做遷移學習。正如吳恩達在 NIPS 2016 講座上畫了一副草圖,大致的意思如下圖所示:

有一點是毋庸置疑的:迄今為止,機器學習在業界的應用和成功,主要由監督學習推動。而這又是建立在深度學習的進步、更強大的計算設施、做了標記的大型資料集的基礎上。近年來,這一波公眾對 人工智慧技術的關注、投資收購浪潮、機器學習在日常生活中的商業應用,主要是由監督學習來引領。但是,該圖在吳恩達眼中是推動機器學習取得商業化成績的主要驅動技術,而且從中可以看出,吳恩達認為下一步將是遷移學習的商業應用大爆發

最後,借鑑香港科技大學計算機與工程系主任,全球第一位華人 AAAI Fellow 楊強教授在 2016 年底騰訊暨 KDD China 大資料峰會上的一頁膠片來作為結束。

昨天我們在深度學習上有著很高成就。但我們發現深度學習在有即時反饋的領域和應用方向有著一定的優勢,但在其他領域則不行。打個比方:就像我在今天講個笑話,你第二天才能笑得出來,在今天要解決這種反饋的時延問題需要強化學習來做。而在明天,則有更多的地方需要遷移學習:它會讓機器學習在這些非常珍貴的大資料和小資料上的能力全部釋放出來。做到舉一反三,融會貫通。

打個小廣告,由於自己本人希望在遷移學習方向上長期研究和學習,因此申請了一個"遷移學習"的公眾號,每週會推送遷移學習的技術和學術乾貨,同時對自己也是一種監督,也希望在學習和分享的過程中遇到同路人,共同交流和進步,請大家多多支援。

相關推薦

深度學習成為過去遷移學習真正未來

NIPS 2016:吳恩達表示,“在繼深度學習之後,遷移學習將引領下一波機器學習技術。 大牛吳恩達曾經說過:做 AI 研究就像造宇宙飛船,除了充足的燃料之外,強勁的引擎也是必不可少的。假如燃料不足,則飛船就無法進入預定軌道。而引擎不夠強勁,飛船甚至不能升空。類比於

【火爐煉AI】深度學習009-用Keras遷移學習提升性能(多分類問題)

tro ray size array 全連接 步驟 loss pytho numpy 【火爐煉AI】深度學習009-用Keras遷移學習提升性能(多分類問題) (本文所使用的Python庫和版本號: Python 3.6, Numpy 1.14, scikit-learn

【論文復現】VGG框架講解以及VGG16復現遷移學習自己的資料。tensorflow。

論文連結,至於論文我沒仔細看,我只學習了其框架。 但是需要注意的是: 在訓練期間,ConvNets的輸入是固定大小的224×224 RGB影象。 唯一預處理是從每個畫素中減去在訓練集上計算的平均RGB值,(eg:VGG16是:VGG_MEAN = tf.constant([123.68, 1

為你推薦一份深度學習書單學習吧~

來源:雲棲社群本文共4400字,建議閱讀8分鐘。本文為大家帶來目前網際網路上12本最好的深度學習

快速入門深度學習(2)遷移學習

咱們繼續入門課程系列,這次是關於遷移學習(Transfer Learning)的故事。    這次咱們要“學習”一把了,針對特定的任務構造自己的分類器了。這次咱們仍然使用AlexNet的網路結構(誰讓它經典呢),訓練這個網路讓它為咱們服務。    在正式Coding之前,首先

深度學習系列Part2:遷移學習和微調深度卷積神經網路

http://www.jiqizhixin.com/article/1465 本文是微軟資料科學家 Anusua Trivedi 所寫的《Deep Learning》系列文章的第二部分,是對遷移學習和微調深度卷積神經網路的介紹。機器之心此前也已經編譯了該系列的第一部分

AI 醫療成為熱點噱頭與實幹如何區分?

在全球範圍內,過去至少有 50 萬人因患乳腺癌死亡,他們當中有 90%都是轉移性腫瘤。今年 10 月,Google 公佈了 AI 輔助乳腺癌診斷的最新成果,一款被命名為 LYNA 的監測工具。 LYNA 能夠以 99% 的準確率區分出有轉移性癌症的載玻片和無轉移性癌症的載玻片,將曾經的平均診

學習邊記錄Java學習路線總結分享

  邊學習邊記錄,對於程式設計師來說真的是一個很好的學習習慣,下面是近期在Java學習時總結的一些技術知識點。   第一講,主要是Java環境變數的配置。搭建好環境才能幹活。要理解什麼是編譯、什麼是執行。編譯是javac.exe程式在負責;執行則由java.exe負責。編譯

最全java學習知識資料Java學習心得分享

很多人想學習java的朋友在新手上路階段,教學視訊可以在市場上發現的不完美,所以我們特意準備了最java學習資料,好的學習資料齊全!在學習了材料的注意之後,可以編寫私人信件。這裡有一些原始碼和註釋與大家分享。學習資料可以加下Java學習裙:伍柒肆貳伍叄零柒伍小白的入門學習ja

學習筆記(自己知道的一些入門者java學習的網站學習方向)

1、慕課網 https://www.imooc.com/course/list?c=java&type=3,這個網站有很多免費的視訊但作為初學者的我感覺一臉矇蔽,不懂現在的前沿技術和各種框架,連什麼是Spring boot都不知道 裡面有一個職業路徑,是各種收費的

螞蟻金服開源機器學習工具SQLFlow機器學習比SQL還簡單

red 樣本 抽象 sub mysq 系統 tps hid 源代碼 來自:開源最前線(ID:OpenSourceTop) 綜合自:AI前線、https://github.com/sql-machine-learning/sqlflow 5月6日,螞蟻金服副

.不管過去如何過去的已經過去最好的總在未來等著你

過去的 pro 技術分享 ron strong shadow watermark 技術 term **千萬別讓人偷了你的夢,夢想是你自己的。 不要讓別人左右你的決定。別人相信的事實,未必是你的。追逐過,你就知道別人認為不可能的事,是有可能的。.不管過去如何,過去的已經過去,

別人攻擊你時這樣做是最好的回擊方式

常與同好爭高下,不與傻瓜論短長。 《猶太法典》中有句話:“超越別人不是超越,超越自己才叫超越。”這句話告訴我們,真正的對手其實是自己,與他人爭一時之氣,往往會得不償失。 有時,逼著自己忍耐一時,並不能說明你這個人就是膽小懦弱之人,因為一個人怎樣並不是一件事就可以證明的,而是往後看,留給時間證明。

『TensorFlow』遷移學習_他山之石可以攻玉

不同 target lis 理解 pla 之前 photo 多說 esc 目的: 使用google已經訓練好的模型,將最後的全連接層修改為我們自己的全連接層,將原有的1000分類分類器修改為我們自己的5分類分類器,利用原有模型的特征提取能力實現我們自己數據對應模型的快速訓練

『TensorFlow』遷移學習_他山之石可以攻玉_V2

tsl jpeg 西遊記 snr lib 成了 exist ads 感覺 『TensorFlow』遷移學習_他山之石,可以攻玉 絮絮叨叨 開學以來課業繁重(雖然也不怎麽認真聽講...)一直沒怎麽閑著,一直沒寫什麽長的代碼,正巧好幾件事趕在一塊了:導師催著我把超新星檢測的神經

深度學習高速路上PaddlePaddle正在彎道超車

額外 ready ron mode 高級 稀疏 表達 single 示例 深度學習是機器學習中一種基於對數據進行表證學習的方法,近些年不斷發展並廣受歡迎。研究熱潮的持續高漲,帶來各種開源深度學習框架層出不窮,其中包括TensorFlow、Caffe、Keras、CNTK、T

遷移學習】簡述遷移學習深度學習中的應用

選自MachineLearningMastery 作者:Jason Brownlee 機器之心編譯 參與:Nurhachu Null、劉曉坤 本文介紹了遷移學習的基本概念,以及該方法在深度學習中的應用,引導構建預測模型的時候使用遷移學習的基本策略。 遷移學習是一種機器學習

人工智慧機器學習神經網路深度學習的關係

目錄 機器學習 有監督學習和無監督學習 神經網路 剛剛接觸人工智慧的內容時,經常性的會看到人工智慧,機器學習,深度學習還有神經網路的不同的術語,一個個都很高冷,以致於傻傻分不清到底它們之間是什麼樣的關係,很多時候都認為是一個東西的不同表達而已,看了一些具體的介紹後才漸漸有了一個大

深度學習500問我覺得很不錯

深度學習500問 https://github.com/scutan90/DeepLearning-500-questions/   NLP部分: https://github.com/scutan90/DeepLearning-500-questions/blob/master/ch16_

38套大資料雲端計算架構資料分析師HadoopSparkStormKafka人工智慧機器學習深度學習專案實戰視訊教程

38套大資料,雲端計算,架構,資料分析師,Hadoop,Spark,Storm,Kafka,人工智慧,機器學習,深度學習,專案實戰視訊教程 視訊課程包含: 38套大資料和人工智慧高階課包含:大資料,雲端計算,架構,資料探勘實戰,實時推薦系統實戰,電視收視率專案實戰,實時流統計專案實戰,離線電