1. 程式人生 > >keras模塊學習之層(layer)的使用-筆記

keras模塊學習之層(layer)的使用-筆記

高級 AC itl ati 防止 lis rec 噪聲 ons

本筆記由博客園-圓柱模板 博主整理筆記發布,轉載需註明,謝謝合作!

keras的層主要包括:

常用層(Core)、卷積層(Convolutional)、池化層(Pooling)、局部連接層、遞歸層(Recurrent)、嵌入層( Embedding)、高級激活層、規範層、噪聲層、包裝層,當然也可以編寫自己的層

對於層的操作

layer.get_weights() #返回該層的權重
layer.set_weights(weights)#將權重加載到該層
config = layer.get_config()#保存該層的配置
layer = layer_from_config(config)#加載一個配置到該層
#該層有一個節點時,獲得輸入張量、輸出張量、及各自的形狀:
layer.input
layer.output
layer.input_shape
layer.output_shape
#該層有多個節點時(node_index為節點序號):
layer.get_input_at(node_index)
layer.get_output_at(node_index)
layer.get_input_shape_at(node_index)
layer.get_output_shape_at(node_index)

  Dense層(全連接層)

keras.layers.core.Dense(output_dim, init=‘glorot_uniform‘, activation=‘linear‘, weights=None, W_regularizer=None, b_regularizer=None, activity_regularizer=None, W_constraint=None, b_constraint=None, bias=True, input_dim=None)

  

output_dim:輸出數據的維度

init:初始化該層權重的方法

activation:該層的激活函數

weights:numpy array的list。該list應含有一個形如(input_dim,output_dim)的權重矩陣和一個形如(output_dim,)的偏置向量

regularizer:正則項,w為權重的、b為偏執的,activity為輸出的

constraints:約束項

bias:是否包含偏執向量,是布爾值

input_dim:輸入數據的維度

dropout層

keras.layers.core.Dropout(p)

為輸入數據施加Dropout。Dropout將在訓練過程中每次更新參數時隨機斷開一定百分比(p)的輸入神經元連接,Dropout層用於防止過擬合。

keras模塊學習之層(layer)的使用-筆記