1. 程式人生 > >機器學習pytorch平臺程式碼學習筆記(8)——優化器 Optimizer

機器學習pytorch平臺程式碼學習筆記(8)——優化器 Optimizer

用Spyder中如果有列舉enumerate都要在程式碼開始的地方加

  1. if __name__ == '__main__':  

原因參考連結最後:https://blog.csdn.net/u010327061/article/details/80218836

以下包括以下幾種模式:

Stochastic Gradient Descent (SGD) 比較基礎
Momentum
RMSProp

Adam


1. 引入庫

import torch
import torch.utils.data as Data
import torch.nn.functional as F
from torch.autograd import Variable
import matplotlib.pyplot as plt

2.初始化超引數

torch.manual_seed(1)    # reproducible
#超引數一般大寫:
LR = 0.01
BATCH_SIZE = 32
EPOCH = 12

3.製造偽資料

# fake dataset 資料
x = torch.unsqueeze(torch.linspace(-1, 1, 1000), dim=1) 
y = x.pow(2) + 0.1*torch.normal(torch.zeros(*x.size()))

4.顯示一下偽資料

plt.scatter(x.numpy(), y.numpy())
plt.show()

5. 先轉換成 torch 能識別的 Dataset 把資料放入資料庫  

# 使用上節內容提到的 data loader, loader使訓練變成小批。 把 dataset 放入 DataLoader  
torch_dataset = Data.TensorDataset(data_tensor=x, target_tensor=y)
loader = Data.DataLoader(dataset=torch_dataset, batch_size=BATCH_SIZE, shuffle=True, num_workers=2,)

6,每個優化器優化一個神經網路

為了對比每一種優化器, 我們給他們各自建立一個神經網路, 但這個神經網路都來自同一個 Net 形式.

# 預設的 network 形式
class Net(torch.nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.hidden = torch.nn.Linear(1, 20)   # hidden layer
        self.predict = torch.nn.Linear(20, 1)   # output layer

    def forward(self, x):
        x = F.relu(self.hidden(x))      # activation function for hidden layer
        x = self.predict(x)             # linear output
        return x

# 為每個優化器建立一個 net
net_SGD         = Net()
net_Momentum    = Net()
net_RMSprop     = Net()
net_Adam        = Net()
nets = [net_SGD, net_Momentum, net_RMSprop, net_Adam]#放在list裡面,可以用個for迴圈遍歷
7.優化器 Optimizer

接下來在建立不同的優化器, 用來訓練不同的網路. 並建立一個 loss_func 用來計算誤差. 我們用幾種常見的優化器, SGD, Momentum, RMSprop, Adam.

# different optimizers,same learning rate
opt_SGD         = torch.optim.SGD(net_SGD.parameters(), lr=LR)
opt_Momentum    = torch.optim.SGD(net_Momentum.parameters(), lr=LR, momentum=0.8) #比sgd多了一個momentum引數
opt_RMSprop     = torch.optim.RMSprop(net_RMSprop.parameters(), lr=LR, alpha=0.9)
opt_Adam        = torch.optim.Adam(net_Adam.parameters(), lr=LR, betas=(0.9, 0.99))
optimizers = [opt_SGD, opt_Momentum, opt_RMSprop, opt_Adam]#放在list裡面,可以用個for迴圈遍歷
#迴歸誤差
loss_func = torch.nn.MSELoss()
losses_his = [[], [], [], []]   # 記錄 training 時不同神經網路的 loss

8.訓練/出圖:

for epoch in range(EPOCH):
    print('Epoch: ', epoch)
    for step, (batch_x, batch_y) in enumerate(loader):
        b_x = Variable(batch_x)  # 務必要用 Variable 包一下,之前傳進來的是Tensor的形式,需要轉一下
        b_y = Variable(batch_y)

        # 對每個優化器, 優化屬於他的神經網路
        for net, opt, l_his in zip(nets, optimizers, losses_his):#三個都是list形式zip打包處理
            output = net(b_x)              # get output for every net
            loss = loss_func(output, b_y)  # compute loss for every net
            opt.zero_grad()                # clear gradients for next train
            loss.backward()                # backpropagation, compute gradients
            opt.step()                     # apply gradients
            l_his.append(loss.data[0])     # loss recoder

9.列印:

   
    labels = ['SGD','Momentum','RMSprop','Adam']
    for i, l_his in enumerate(losses_his):
        plt.plot(l_his,label=labels[i])
    plt.legend(loc='best')
    plt.xlabel('Steps')
    plt.ylabel('Loss')
    plt.ylim(0,0.2)
    plt.show()

10.結果


參考連結:

https://morvanzhou.github.io/tutorials/machine-learning/torch/3-06-optimizer/