1. 程式人生 > >二分類問題 - 【老魚學tensorflow2】

二分類問題 - 【老魚學tensorflow2】

#什麼是二分類問題? 二分類問題就是最終的結果只有好或壞這樣的一個輸出。 比如,這是好的,那是壞的。這個就是二分類的問題。 我們以一個電影評論作為例子來進行。我們對某部電影評論的文字內容為好評和差評。 我們使用IMDB 資料集,它包含來自網際網路電影資料庫(IMDB)的 50 000 條嚴重兩極分化的評論。資料集被分為用於訓練的 25 000 條評論與用於測試的 25 000 條評論,訓練集和測試集都包含 50% 的正面評論和 50% 的負面評論。 #載入資料集 ```python import tensorflow.keras as keras (x_train, y_train), (x_test, y_test) = keras.datasets.imdb.load_data(num_words=10000) ``` 引數 num_words=10000 的意思是僅保留訓練資料中前 10 000 個最常出現的單詞。低頻單詞將被捨棄。這樣得到的向量資料不會太大,便於處理。 如果打印出資料結果,會發現x_train中的資料為: x_train: [1, 14, 22, 16, 43, 530, 973, 1622,...] y_train中的資料為: y_train:[1 0 0 ... 0 1 0] #解密資料 對於y_train中的資料我們比較容易猜出來,大概是0表示差評,1表示好評。 而x_train中的這串數字是啥意思呢? 其實這些是單詞的索引,我們先通過如下的語句打印出單詞中的索引內容: ```python data = keras.datasets.imdb.get_word_index() print(data) ``` 打印出的結果為: 'pleasantvil': 65027, 'defininitive': 65028, 'reverent': 44834, 'gangland': 22426, 也就是單詞和索引號之間的對映關係。 在x_train中儲存了25000條品論,而其中每條評論是一個數組,其中的內容是單詞索引。 例如: 第一條評論x_train[0]為: [1, 14, 22, 16, 43, 530, 973, ..., 32] 第二條評論x_train[1]為: [1, 194, 1153, 194, 8255, ..., 95] 每條評論的長度也不一樣。 如果想要解密評論的內容,只要根據前面的索引表來拼接出對應的單詞就可以。 相應的程式碼為: ```python data = keras.datasets.imdb.get_word_index() word_map = dict([(value,key) for (key,value) in data.items()]) words = [] for word_index in x_train[0]: words.append(word_map[word_index]) print(" ".join(words)) ``` 解密出的第一條評論為: the as you with out themselves powerful lets loves their becomes ... #準備資料 在x_train中儲存的資料是評論單詞的索引,而且我們這裡只使用了前最常出現的10000個單詞,在詞向量中,我們需要把單詞索引轉換成one-hot編碼,那為何要進行這樣的轉換呢? 我們知道,在進行深度學習的模型訓練中,我們都用數字來進行計算,而在單詞的表示中,原始資料用單詞的索引號來進行了表達,如果直接把單詞的索引號用於計算,其實是沒有意義的,因為單詞的索引號194和1153不存在大小比較和順序的問題,因此在機器學習中我們經常會使用one-hot編碼來表示某些單詞或分類的向量問題,也就是你可以把所有的單詞空間想象成一個向量,而其中的值只有0和1,每個句子都會包含所有的單詞向量,如果在那個句子中包含了某些詞,就在那個詞向量的位置上置上1,沒有包含這個詞的就在那個詞的位置上設定上0. 比如所有的詞為: 當一個句子為:我愛學習,則這個詞向量為: 所有詞:我是中國愛學習人 句子:我 愛學習 詞向量:[1,0,0,0,1,1,1,0] 那如何通過程式碼來實現這個詞向量的轉換呢? 首先我們想這是一個方法,這樣可以對輸入引數進行轉換,假設這個方法名為:vectorize_sequence() 在呼叫時我們主要是對輸入引數進行轉換,因此其呼叫方式為: ```python x_train = vectorize_sequence(x_train) x_test = vectorize_sequence(x_test) ``` 這樣我們來實現一下這個方法: ```python import numpy as np def vectorize_sequence(data, words_size = 10000): words_vector = np.zeros((len(data), words_size)) for row, word_index in enumerate(data): words_vector[row, word_index] = 1.0 return words_vector ``` 相對功能也是比較簡單的,基本上就是首先初始化一個零矩陣:[輸入引數的行, 詞向量個數] 然後根據輸入引數中對應的詞索引所在位置置上值1就可以了。 #構建模型 ```python #構建模型 model = keras.models.Sequential() model.add(keras.layers.Dense(16, activation=keras.activations.relu, input_shape=(10000, ))) model.add(keras.layers.Dense(16, activation=keras.activations.relu)) model.add(keras.layers.Dense(1, activation=keras.activations.sigmoid)) #編譯模型 model.compile(optimizer=keras.optimizers.RMSprop(), loss=keras.losses.binary_crossentropy, metrics=[keras.metrics.binary_accuracy]) #訓練模型 model.fit(x_train, y_train, epochs=20) ``` 上面的程式碼比較簡單直接。 只有幾個地方需要說明一下的。 首先,keras中命名方式比較一致,比如這裡的keras.models來選擇模型,keras.layers來選擇層,keras.activations來選擇啟用函式,keras.optimizers用來選擇優化器,keras.losses選擇損失函式等等,也就是用某個帶複數s的單詞來選擇對應的功能。 有些文章中直接用字串來設定這些引數,例如:activation="relu",optimizer="rmsprop",loss='binary_crossentropy'等。 而由於我是通過IDEA來編寫程式碼的,因此用程式碼的方式比較容易,因為編輯器會進行自動提示,也不需要記憶這些單詞了。 在這裡啟用函式用於把線性函式轉換成非線性函式。 這裡的線性函式是指在神經網路中,其全連線的網路結構就是一個線性方程y=aX+b這樣的一個形式。類似我們的人腦,我們人腦大概有6層,當我們接收到資訊的刺激後,大腦皮層中的某些神經元會活躍起來,如果某些活躍強度不夠的話,這些訊號就不會傳輸到下一層的皮層中。因此這裡的啟用可以看成深度學習中的啟用函式,我們這裡使用了relu函式,其影象為 ![](https://img2020.cnblogs.com/blog/544412/202007/544412-20200717141517018-1544622774.png) 有點類似我們大腦中某神經元對於某訊號的刺激太小的話,就一直處於睡眠狀態,而如果此輸入的訊號激起了此神經元,則刺激的強度就跟輸入資訊的強度成正比。 更多的簡單介紹啟用函式可以參考[tensorflow激勵函式](https://www.cnblogs.com/dreampursuer/p/8017274.html) 還有一個地方需要注意的是在模型的最後一層我們使用`keras.layers.Dense(1, activation=keras.activations.sigmoid)`,由於我們最終的輸出是一維資料,因此設定了一維輸出結果,這裡由於是二分類問題,因此最後一層的啟用函式要用sigmoid,損失函式用binary_crossentropy(二元交叉熵)。 一般對於分類問題,最後一層的啟用函式用softmax,損失函式用交叉熵 對於迴歸問題,最後一層啟用函式用非sigmoid,損失函式用mean_squared_error(均方誤差)。 這裡稍微做個對比: | 型別 | 啟用函式 | 損失函式 | | ---- | ---- | ---- | | 二分類 | sigmoid |binary_crossentropy | | 多分類 | softmax | categorical_crossentropy | | 迴歸問題 | 無 | mse | # 在測試集上進行測試 ``` results = model.evaluate(x_test, y_test) print(results) ``` 輸出為: ``` [1.221505075365305, 0.84568] ``` 表示精確度為84.568% # 預測 訓練好網路之後,你希望將其用於實踐。你可以用 predict 方法來得到評論為正面的可能性大小。 ```python results = model.predict(x_test) print(results) ``` 輸出為: ``` [[1.3547829e-01] [1.0000000e+00] [9.9999928e-01] ... [1.2173951e-03] [1.7526746e-04] [8.9666247e-04]] ``` 這裡的數值表示為如果接近1表示是好評,如果接近0表示是差評。 完整程式碼如下: ```python import tensorflow.keras as keras (x_train, y_train), (x_test, y_test) = keras.datasets.imdb.load_data(num_words=10000) # print("x_train:", x_train, "y_train:", y_train) # data = keras.datasets.imdb.get_word_index() # word_map = dict([(value, key) for (key,value) in data.items()]) # words = [] # for word_index in x_train[0]: # words.append(word_map[word_index]) # print(" ".join(words)) import numpy as np def vectorize_sequence(data, words_size = 10000): words_vector = np.zeros((len(data), words_size)) for row, word_index in enumerate(data): words_vector[row, word_index] = 1.0 return words_vector x_train = vectorize_sequence(x_train) x_test = vectorize_sequence(x_test) #構建模型 model = keras.models.Sequential() model.add(keras.layers.Dense(16, activation=keras.activations.relu, input_shape=(10000, ))) model.add(keras.layers.Dense(16, activation=keras.activations.relu)) model.add(keras.layers.Dense(1, activation=keras.activations.sigmoid)) #編譯模型 model.compile(optimizer=keras.optimizers.RMSprop(), loss=keras.losses.binary_crossentropy, metrics=[keras.metrics.binary_accuracy]) #訓練模型 model.fit(x_train, y_train, epochs=20) # 測試 results = model.evaluate(x_test, y_test) print(results) # 預測 results = model.predict(x_test) print(resul