一、 Tensor & Variable & Parameter
1. Tensor
pytorch中的Tensor类似于numpy中的array,之所以“另起炉灶”,是因为tensor能够更方便地在GPU上进行运算。pytorch为tensor设计了许多方便的操作,同时tensor也可以轻松地和numpy数组进行相互转换。
1)像使用numpy的arrray一样,使用pytorch的tensor
import torch
# numpy array -> tensor
pt_tensor1 = torch.Tensor(numpy_array)
pt_tensor2 = torch.from_numpy(numpy_array)
# tensor -> numpy_array
my_array = pt_tensor1.numpy() # 如果是放在gpu上,要先.cpu()一下
2)访问Tensor的一些属性
# my_tensor是一个3x4的tensor
# 访问维度
my_tensor.dim() # 2
# 访问大小
my_tensor.size() # (3,4)
my_tensor.shape
# 访问元素个数
my_tensor.numel()
# 访问元素数据类型
my_tensor.type()
# 访问tensor内的某个元素或某些元素
my_tensor[0, 0] # 第0个元素,等价于my_tensor[0][0]
my_tensor[1:3, 0:2] # 第2~3行、1~2列的元素,等价于my_tensor[1:3][0:2]
~~疑问:tensor和Variable的.data操作有何作用,和item()有何区别
# item是从0维tensor中拿出具体数值(int,float等)
# .data取出的仍然是tensor
3) 常用的tensor操作
# 用到再往这里面加
# 矩阵乘法
torch.matmul(x, y)
2. Variable
Variable是对Tensor的封装,操作与tensor基本一致,不同的是,每一个Variable被构建的时候,都包含三个属性:
- Variable中所包含的tensor
- tensor的梯度
.grad
- 以何种方式得到这种梯度
.grad_fn
之所以有Variable这个数据结构,是为了引入计算图(自动求导),方便构建神经网络。下面用例子说明:
# 1. 对标量自动求导
from torch.autograd import Variable
a = torch.randn(10, 5)
b = torch.randn(10, 5)
x = Variable(a, requires_grad=True)
y = Variable(b, requires_grad=True)
z = x + y
z.backward()
x.grad # x的梯度 10x1 的全1tensor
z.grad_fn # <SumBackward0 object at 0x7f809e33fcf8>
# 2. 对向量、矩阵进行求导
n = Variable(torch.zeros(1, 2), requires_grad=True)
m = Variable(torch.FloatTensor([2, 3]), requires_grad=True)
n[0, 0] = m[0, 0] ** 2
n[0, 1] = m[0, 1] ** 3
n.backward(torch.ones_like(n))
m.grad
# [4., 27.]
通过调用backward(),我们可以对某个Variable(譬如说y)进行一次自动求导,但如果我们再对这个Variable进行一次backward()操作,会发现程序报错。这是因为PyTorch默认做完一次自动求导后,就把计算图丢弃了。我们可以通过设置retain_graph来实现多次求导。
# 多次自动求导
x = Variable(torch.Tensor([2]), requires_grad=True)
y = x * 2 + x ** 2 + 3
y.backward()
x.grad # 6
y.backward()
# 报错-->RuntimeError: Trying to backward through the graph a second time, but the buffers have already been freed. Specify retain_graph=True when calling backward the first time.
z = x * 2 + x ** 2 + 3
z.backward(retain_graph=True) #参数设定,保留计算图
x.grad # 第一次求导的梯度
x.grad.data.zero_() # 梯度归0,否则梯度会叠加(求和)
z.backward() # 第二次求导
x.grad # 第二次求导的梯度
# 注意retain_graph参数的效用只有一次,也就是说在这块代码里,我如果想对z进行第三次求导,同样会报错,因为第二次求导的时候没有声明retain_graph=True
Parameter
我们知道网络中存在很多参数,这些参数需要在网络训练的过程中实时更新(一个batch更新一次),完成“学习”的过程,譬如最直观的梯度下降法更新参数w
:
w.data = w.data - lr * w.grad.data # lr 是学习率
那么这里就遇到一个很直观的问题:麻烦啊
- 网络中若是有100个参数,都要手写更新代码吗?1000个呢?10000个呢......
- Variable默认是不需要求梯度的,那我还需要手动设置参数
requires_grad=True
咯 - Variable因为要多次反向传播,那么在bcakward的时候还要手动注明参数
w.backward(retain_graph=True)
咯
Pytorch主要通过引入nn.Parameter
类型的变量和optimizer机制
来解决了这个问题。Parameter是Variable的子类,本质上和后者一样,只不过parameter默认是求梯度的,同时一个网络net中的parameter变量是可以通过 net.parameters() 来很方便地访问到的,只需将网络中所有需要训练更新的参数定义为Parameter类型,再佐以optimizer,就能够完成所有参数的更新了,具体如下:
class Net(Module):
def __init__(self, a, b, ...):
super(net, self).__init__()
self... # parameters
self... # layers
def forward(self):
x = ...
x = ... # 数据流
return x
net = Net(a, b, ...)
net.train()
...
optimizer = torch.optim.SGD(net.parameters(), lr=1e-1)
# 然后在每一个batch中,调用optimizer.step()即可完成参数更新了(loss.backward()之后)