《TensorFlow技術解析與實戰》學習筆記1
-
第1章 人工只能概述
機器是如何實現人類的智力呢?訓練,模型(引數)。深度學習+神經網路。
深度學習前身是Artificial Neural Network。Input Layer, Hidden Layout, Output Layer。
前向傳播(Forward Propagation)
最後層給出結論,概率向量。
ANN,層與層之間有大量連結,層內的神經元一般相互獨立。
啟用函式Activation Function。非線性。神經元將其他的資料做一個非線性變化,輸出給下層。
成本函式Cost Function。定量評估特定輸入值下,計算出來的輸出結果與真實值偏差,調整層的權重,使最後的損失最小。反向傳播Backward Propagation。
神經網路演算法:計算、連結、評估、糾錯、訓練。深度學增加層數、神經元數量。
分類Classification,特徵Feature,標記Label。有監督學習Supervised Learning。
無監督學習:Imsi[ervosed Learning。不明確分類,資料呈現聚群結構。聚類clustering;激勵制度,強化學習Reinforcement Learning。
半監督學習Semi-Supervised Learning。
損失函式Loss Functing。
機器學習流行之前,需要大量的領域知識。
以統計方法為核心的機器學習成為主流後,重要的是做特徵工程(Feature Engineering),不斷調整引數。對於語音、影象相對困難。
深度學習,不需要過多提取特徵,自動學習出特徵。
TensorFlow支援異構裝置分散式計算。
Convolutional Neural Network,Recurrent Neural Network,Long Short-Term Memory。
Tensorflow, Caffe, Torch7
Deep Flexibility,True Portability,Connect Research and Production,Auto-Differentiation, Language Options, Maximize Performance。
ImageNet Large Scale Visual Recognition Challenge
-
第2章 TensorFlow環境的準備
numpy,matplotlib,jupyter,scikit-image,librosa,nltk,keras,tflearn
-
第3章 視覺化TensorFlow
playground.tensorflow.org
特徵提取Feature Extraction,分類器Classifier。
測試損失Test loss,訓練損失Training Loss。
TensorBoard,Graphs面板。