1. 程式人生 > >python實現隨機梯度下降(SGD)

python實現隨機梯度下降(SGD)

使用神經網路進行樣本訓練,要實現隨機梯度下降演算法。這裡我根據麥子學院彭亮老師的講解,總結如下,(神經網路的結構在另一篇部落格中已經定義):

def SGD(self, training_data, epochs, mini_batch_size, eta, test_data=None):
    if test_data:
        n_test = len(test_data)#有多少個測試集
        n = len(training_data)
        for j in xrange(epochs):
            random.shuffle(training_data)
            mini_batches = [
                training_data[k:k+mini_batch_size] 
                for
k in xrange(0,n,mini_batch_size)] for mini_batch in mini_batches: self.update_mini_batch(mini_batch, eta) if test_data: print "Epoch {0}: {1}/{2}".format(j, self.evaluate(test_data),n_test) else: print "Epoch {0} complete"
.format(j)
  1. 其中training_data是訓練集,是由很多的tuples(元組)組成。每一個元組(x,y)代表一個例項,x是影象的向量表示,y是影象的類別。
  2. epochs表示訓練多少輪。
  3. mini_batch_size表示每一次訓練的例項個數。
  4. eta表示學習率。
  5. test_data表示測試集。
  6. 比較重要的函式是self.update_mini_batch,他是更新權重和偏置的關鍵函式,接下來就定義這個函式。
def update_mini_batch(self, mini_batch,eta): 
    nabla_b = [np.zeros(b.shape) for
b in self.biases] nabla_w = [np.zeros(w.shape) for w in self.weights] for x,y in mini_batch: delta_nabla_b, delta_nable_w = self.backprop(x,y)#目標函式對b和w的偏導數 nabla_b = [nb+dnb for nb,dnb in zip(nabla_b,delta_nabla_b)] nabla_w = [nw+dnw for nw,dnw in zip(nabla_w,delta_nabla_w)]#累加b和w #最終更新權重為 self.weights = [w-(eta/len(mini_batch))*nw for w, nw in zip(self.weights, nabla_w)] self.baises = [b-(eta/len(mini_batch))*nb for b, nb in zip(self.baises, nabla_b)]

這個update_mini_batch函式根據你傳入的一些資料進行更新神經網路的權重和偏置。