機器學習pytorch平臺程式碼學習筆記(8)——優化器 Optimizer
阿新 • • 發佈:2019-01-07
用Spyder中如果有列舉enumerate都要在程式碼開始的地方加
- if __name__ == '__main__':
原因參考連結最後:https://blog.csdn.net/u010327061/article/details/80218836
以下包括以下幾種模式:
Stochastic Gradient Descent (SGD) 比較基礎Momentum
RMSProp
Adam
1. 引入庫
import torch import torch.utils.data as Data import torch.nn.functional as F from torch.autograd import Variable import matplotlib.pyplot as plt
2.初始化超引數
torch.manual_seed(1) # reproducible
#超引數一般大寫:
LR = 0.01
BATCH_SIZE = 32
EPOCH = 12
3.製造偽資料
# fake dataset 資料
x = torch.unsqueeze(torch.linspace(-1, 1, 1000), dim=1)
y = x.pow(2) + 0.1*torch.normal(torch.zeros(*x.size()))
4.顯示一下偽資料
plt.scatter(x.numpy(), y.numpy())
plt.show()
5. 先轉換成 torch 能識別的 Dataset 把資料放入資料庫
# 使用上節內容提到的 data loader, loader使訓練變成小批。 把 dataset 放入 DataLoader
torch_dataset = Data.TensorDataset(data_tensor=x, target_tensor=y)
loader = Data.DataLoader(dataset=torch_dataset, batch_size=BATCH_SIZE, shuffle=True, num_workers=2,)
6,每個優化器優化一個神經網路
為了對比每一種優化器, 我們給他們各自建立一個神經網路, 但這個神經網路都來自同一個 Net 形式.
7.優化器 Optimizer# 預設的 network 形式 class Net(torch.nn.Module): def __init__(self): super(Net, self).__init__() self.hidden = torch.nn.Linear(1, 20) # hidden layer self.predict = torch.nn.Linear(20, 1) # output layer def forward(self, x): x = F.relu(self.hidden(x)) # activation function for hidden layer x = self.predict(x) # linear output return x # 為每個優化器建立一個 net net_SGD = Net() net_Momentum = Net() net_RMSprop = Net() net_Adam = Net() nets = [net_SGD, net_Momentum, net_RMSprop, net_Adam]#放在list裡面,可以用個for迴圈遍歷
接下來在建立不同的優化器, 用來訓練不同的網路. 並建立一個 loss_func 用來計算誤差. 我們用幾種常見的優化器, SGD, Momentum, RMSprop, Adam.
# different optimizers,same learning rate
opt_SGD = torch.optim.SGD(net_SGD.parameters(), lr=LR)
opt_Momentum = torch.optim.SGD(net_Momentum.parameters(), lr=LR, momentum=0.8) #比sgd多了一個momentum引數
opt_RMSprop = torch.optim.RMSprop(net_RMSprop.parameters(), lr=LR, alpha=0.9)
opt_Adam = torch.optim.Adam(net_Adam.parameters(), lr=LR, betas=(0.9, 0.99))
optimizers = [opt_SGD, opt_Momentum, opt_RMSprop, opt_Adam]#放在list裡面,可以用個for迴圈遍歷
#迴歸誤差
loss_func = torch.nn.MSELoss()
losses_his = [[], [], [], []] # 記錄 training 時不同神經網路的 loss
8.訓練/出圖:
for epoch in range(EPOCH):
print('Epoch: ', epoch)
for step, (batch_x, batch_y) in enumerate(loader):
b_x = Variable(batch_x) # 務必要用 Variable 包一下,之前傳進來的是Tensor的形式,需要轉一下
b_y = Variable(batch_y)
# 對每個優化器, 優化屬於他的神經網路
for net, opt, l_his in zip(nets, optimizers, losses_his):#三個都是list形式zip打包處理
output = net(b_x) # get output for every net
loss = loss_func(output, b_y) # compute loss for every net
opt.zero_grad() # clear gradients for next train
loss.backward() # backpropagation, compute gradients
opt.step() # apply gradients
l_his.append(loss.data[0]) # loss recoder
9.列印:
labels = ['SGD','Momentum','RMSprop','Adam']
for i, l_his in enumerate(losses_his):
plt.plot(l_his,label=labels[i])
plt.legend(loc='best')
plt.xlabel('Steps')
plt.ylabel('Loss')
plt.ylim(0,0.2)
plt.show()
10.結果
參考連結:
https://morvanzhou.github.io/tutorials/machine-learning/torch/3-06-optimizer/