1. 程式人生 > >PyTorch 之Varible

PyTorch 之Varible

構建Variable. 要誼意得傳入一個引數 requires_grad=True ,這個引數表 是否對這個變數求梯度,預設的 Fa!se ,也就是不對這個變數求梯度,這裡我們希望得到這些變數的梯度,所以需要傳入這個引數從的程式碼中,我們看到了一行 y.backward() ,這 行程式碼就是所謂的自動求導,

import torch
import torch.nn.functional as F
from torch.autograd import Variable
import matplotlib.pyplot as plt

x=Variable(torch.Tensor([1]),requires_grad=True)#預設為false
w=Variable(torch.Tensor([2]),requires_grad=True)
b=Variable(torch.Tensor([3]),requires_grad=True)

y=w*x+b
y.backward()#自動求導
print(x.grad)#2
print(w.grad)#1
print(b.grad)#1