1. 程式人生 > >手把手教你用Python建立簡單的神經網路!

手把手教你用Python建立簡單的神經網路!

手把手教你用Python建立簡單的神經網路!

 

資料

手把手教你用Python建立簡單的神經網路!

 

手把手教你用Python建立簡單的神經網路!

 

瞭解神經網路如何工作的最佳方法是學習如何從頭開始構建神經網路(而不是採用任何庫)。

在本文中,我們將演示如何利用Python程式語言建立一個簡單的神經網路。

問題

如下是一個展示問題的表格。

手把手教你用Python建立簡單的神經網路!

 

手把手教你用Python建立簡單的神經網路!

 

numpy庫提供了以下四種重要方法:

exp—用於生成自然指數

array—用於生成矩陣

dot—用於矩陣相乘

random—用於生成隨機數。請注意,我們將生成隨機數,以確保它們的有效分佈。

  1. 應用Sigmoid函式

我們將使用Sigmoid函式,來繪製一個特徵“S”型曲線,作為神經網路的啟用函式。

手把手教你用Python建立簡單的神經網路!

 

此函式可以將任何值對映到0到1之間的值,它將有助於我們對輸入的加權和歸一化。

此後,我們將建立Sigmoid函式的導數,以幫助計算權重的調整引數。

可以利用Sigmoid函式的輸出來生成它的導數。例如,如果輸出變數為“x”,則其導數為x*(1-x)。

  1. 訓練模型

這是我們教神經網路做出準確預測的階段。每個輸入都有一個權重-可為正值或負值。這意味著:有較大的正權重或負權重的輸入會對結果的輸出產生更大的影響。請記住,我們最初是通過為每個隨機數分配一個權重後開始的。

下面是這個神經網路示例的訓練過程:

第一步:從訓練資料集中提取輸入,根據訓練資料集的權重進行調整,並通過一種計算神經網路輸出的方法對其進行篩選。

第二步:計算反向傳播錯誤率。在這種情況下,它是神經元的預測輸出與訓練資料集的期望輸出之間的差異。

第三步:利用誤差加權導數公式,根據所得到的誤差範圍,進行了一些較小的權值調整。

第四步:對這一過程進行15000次迭代。在每次迭代中,整個訓練集被同時處理。

我們使用“.T”函式將矩陣從水平位置轉換為垂直位置。因此,數字將以如下方式儲存:3

進群:960410445   一起交流共同進步!

手把手教你用Python建立簡單的神經網路!

 

最終,神經元的權重將根據所提供的訓練資料進行優化。隨後,如果讓神經元考慮一個新的狀態,與先前的狀態相同,它便可以作出一個準確的預測。這就是反向傳播的方式。

打包執行

最後,NeuralNetwork類初始化成功後,可以執行程式碼了。

下面是如何在Python專案中建立神經網路的完整程式碼:

import numpy as np
 
class NeuralNetwork():
 
 def __init__(self):
 # seeding for random number generation
 np.random.seed(1)
 
 #converting weights to a 3 by 1 matrix with values from -1 to 1 and mean of 0
 self.synaptic_weights = 2 * np.random.random((3, 1)) - 1
 
 def sigmoid(self, x):
 #applying the sigmoid function
 return 1 / (1 + np.exp(-x))
 
 def sigmoid_derivative(self, x):
 #computing derivative to the Sigmoid function
 return x * (1 - x)
 
 def train(self, training_inputs, training_outputs, training_iterations):
 
 #training the model to make accurate predictions while adjusting weights continually
 for iteration in range(training_iterations):
 #siphon the training data via the neuron
 output = self.think(training_inputs)
 
 #computing error rate for back-propagation
 error = training_outputs - output
 
 #performing weight adjustments
 adjustments = np.dot(training_inputs.T, error * self.sigmoid_derivative(output))
 
 self.synaptic_weights += adjustments
 
 def think(self, inputs):
 #passing the inputs via the neuron to get output 
 #converting values to floats
 
 inputs = inputs.astype(float)
 output = self.sigmoid(np.dot(inputs, self.synaptic_weights))
 return output
 
 
if __name__ == "__main__":
 
 #initializing the neuron class
 neural_network = NeuralNetwork()
 
 print("Beginning Randomly Generated Weights: ")
 print(neural_network.synaptic_weights)
 
 #training data consisting of 4 examples--3 input values and 1 output
 training_inputs = np.array([[0,0,1],
 [1,1,1],
 [1,0,1],
 [0,1,1]])
 
 training_outputs = np.array([[0,1,1,0]]).T
 
 #training taking place
 neural_network.train(training_inputs, training_outputs, 15000)
 
 print("Ending Weights After Training: ")
 print(neural_network.synaptic_weights)
 
 user_input_one = str(input("User Input One: "))
 user_input_two = str(input("User Input Two: "))
 user_input_three = str(input("User Input Three: "))
 
 print("Considering New Situation: ", user_input_one, user_input_two, user_input_three)
 print("New Output data: ")
 print(neural_network.think(np.array([user_input_one, user_input_two, user_input_three])))
print("Wow, we did it!")

執行程式碼之後的輸出:

手把手教你用Python建立簡單的神經網路!

 

這樣,我們便成功地建立了一個簡單的神經網路。

神經元首先給自己分配一些隨機權重,接著,利用訓練例項進行了自我訓練。

之後,如果出現新的狀態[1,0,0],則它得出的數值為0.9999584。

還記得我們想要的正確答案是1嗎?

這個數值非常接近,Sigmoid函式輸出值在0到1之間。

當然,在這個例子中,我們只使用一個神經元網路來完成簡單的任務。如果我們把幾千個人工神經網路連線在一起,情況將會是怎樣呢?我們能不能完全模仿人類的思維方式呢?