1. 程式人生 > >2018-3-21李巨集毅機器學習視訊筆記(十三)--“Hello Wrold” of Deep learning

2018-3-21李巨集毅機器學習視訊筆記(十三)--“Hello Wrold” of Deep learning

Keras:

有關的介紹:總的來說就是一個深度學習框架

keras - CSDN部落格

https://blog.csdn.net/xiaomuworld/article/details/52076202

軟體工程中的框架:一種可複用的設計構件(從巨集觀上大體結構的一種規定約束)

軟體工程中的框架 掃個盲 嘿嘿 - CSDN部落格
https://blog.csdn.net/molitiantang/article/details/7868102










每一個epoch中會Update很多的引數,因為每一個batch被選擇之後就會進行計算Loss Function然後進行引數的更新

SGD的速度比較會,上面的例子就是一個SGD,雖然SGD的方向是不穩定的。

使用Mini-batch的主要原因就是實用性


問題:

為什麼使用batch size比較大的時候速度回比較快??

答:使用了平行運算,就是同時運算的。

為甚不讓batch size 開到很大?、

答:cpu儲存,當設定很大的時候實際是表現並不好

解釋問題:當有batch的時候GPU是如何平行的加速??



理論上這兩中方法運算時間是一樣的,但是事實上的運算時間會是第一種的越是第二種的兩倍

故而有了GPU,一定要知道使用mini-batch,不然也沒有加速