1. 程式人生 > >莫煩Python之機器學習概念了解

莫煩Python之機器學習概念了解

機器學習 化學 圖片 但是 結果 logs 意義 自然語言 網絡

1、機器學習分類

  • 有監督學習
  • 無監督學習
  • 半監督學習
  • 強化學習
  • 遺傳算法

2、神經網絡

  • 一種基於傳統統計學的模型,由大量的神經元與其關系構成。常用來對復雜的輸入和輸出關系進行建模
  • 誤差反向傳遞:給出信號,得到經過神經網絡算法之後的結果(信號正向傳播),再根據結果來修改神經網絡中的神經元強度(信號反向傳播)
  • 通過正向和反向傳播來更新神經元,從而形成更好的神經系統
  • 每一個神經元都有屬於它的激活函數,在訓練過程中可以通過調整不同神經元的激活參數來調整模型
  • 輸入層:負責信息的傳入

    輸出層:權衡、中轉、輸出信息

    隱藏層:負責傳入信息的加工處理

  • ?????但是最重要的還是不知道啊,比如輸入層的信息具體怎麽處理,隱藏層怎麽加工,輸出層又是怎麽回事????具體是怎麽實現完全不知啊

3、卷積神經網絡(CNN)

  • 應用:圖片識別、視頻分析、自然語言處理
  • 數據輸入層,卷積計算層,RELU激勵層,池化層,全連接層(從這個博客看來的)

  • 有一個批量過濾器,持續在圖片上滾動搜集圖片信息,每次只是一小塊信息,整理後得到邊緣信息;然後批量過濾器掃過邊緣的信息,神經網絡總結出更高層的信息;再一次過濾後總結出臉部信息;再把這些信息放入普通的全連接神經網絡進行分類
  • 問題依舊是具體實現,怎麽搜集信息,怎麽整理,上面的那個博客講的很詳細。

4、循環神經網絡(RNN)

  • 應用:語言分析,序列化數據的處理
  • 為了讓神經網絡在有序數據集中學習,產生對當前發生事情的意義,也就是產生“上文聯系”
  • x1數據下產生狀態s1以及結果y1,在x2數據下產生狀態s2,結果y2由狀態s1和s2共同創造

5、LSTM RNN

  • LSTM:long short memery,長短期記憶
  • 為了解決普通RNN的弊端(在誤差反向傳遞的時候,每循環一次都會乘以當前狀態的權重w,如果w>1,那麽返回的誤差就會很大,可能會發生梯度爆炸;而w<1,返回的誤差就會很小,可能發生梯度消失)
  • 普通RNN沒有辦法回憶起久遠記憶(剛開始數據集產生的記憶)
  • 與普通RNN的區別,增加了輸入、輸出、忘記,有主線記憶單元,當後面的數據與前面沖突時,按比例更改“主線內容”;如果與“主線”數據相關,則添加進“主線”
  • 技術分享圖片

莫煩Python之機器學習概念了解