2.1 Pytorch的安装及入门使用

Pytorch的安装

目标

知道如何安装pytorch

1. Pytorch的介绍

Pytorch是一款facebook发布的深度学习框架,由其易用性,友好性,深受广大用户青睐。

2. Pytorch的版本

3. Pytorch的安装

安装地址介绍:https://pytorch.org/get-started/locally/

注意:代码中都是使用torch

Pytorch中数据-张量

目标

知道张量和Pytorch中的张量

知道pytorch中如何创建张量

知道pytorch中tensor的重要属性

知道pytorch中tensor的如何修改

知道pytorch中的cuda tensor

掌握pytorch中tensor的常用数学运算

1. 张量Tensor

张量是一个统称,其中包含很多类型:

0阶张量:标量、常数,0-D Tensor

1阶张量:向量,1-D Tensor

2阶张量:矩阵,2-D Tensor

3阶张量

...

N阶张量

2. Pytorch中创建张量

从已有的数据中创建张量

从列表中创建

torch.tensor([[1., -1.], [1., -1.]])

tensor([[ 1.0000, -1.0000],

[ 1.0000, -1.0000]])

使用numpy中的数组创建tensor

torch.tensor(np.array([[1, 2, 3], [4, 5, 6]]))

tensor([[ 1, 2, 3],

[ 4, 5, 6]])

创建固定张量

torch.ones([3,4]) 创建3行4列的全为1的tensor

torch.zeros([3,4])创建3行4列的全为0的tensor

torch.ones_like(tensor) torch.zeros_like(tensor)创建与tensor相同形状和数据类型的值全为1/0的tensor

torch.empty(3,4)创建3行4列的空的tensor,会用无用数据进行填充(手工填充torch.fill_)

在一定范围内创建序列张量

torch.arange(start, end, step) 从start到end以step为步长取值生成序列

torch.linspace(start, end, number_steps) 从start到end之间等差生成number_steps个数字组成序列

torch.logspace(start, end, number_steps, base=10)在$base^{start}$到$base^{end}$之间等比生成number_steps个数字组成序列

创建随机张量

torch.rand([3,4]) 创建3行4列的随机值的tensor,随机值的区间是[0, 1)

>>> torch.rand(2, 3)

tensor([[ 0.8237, 0.5781, 0.6879],

[ 0.3816, 0.7249, 0.0998]])

torch.randint(low=0,high=10,size=[3,4]) 创建3行4列的随机整数的tensor,随机值的区间是[low, high)

>>> torch.randint(3, 10, (2, 2))

tensor([[4, 5],

[6, 7]])

torch.randn([3,4]) 创建3行4列的随机数的tensor,随机值的分布式均值为0,方差为1

3. Pytorch中tensor的属性

获取tensor中的数据

tensor.item() 当tensor中只有一个元素时

In [10]: a = torch.tensor(np.arange(1))

In [11]: a

Out[11]: tensor([0])

In [12]: a.item()

Out[12]:0

转化为numpy数组

In [55]: z.numpy()

Out[55]:

array([[-2.5871205],

[7.3690367],

[-2.4918075]], dtype=float32)

获取形状:tensor.size() tensor.shape

In [72]: x

Out[72]:

tensor([[1,2],

[3,4],

[5,10]], dtype=torch.int32)

In [73]: x.size()

Out[73]: torch.Size([3,2])

获取数据类型tensor.dtype

In [80]: x.dtype

Out[80]: torch.int32

获取阶数:tensor.dim()

In [77]: x.dim()

Out[77]: 2

4.tensor的修改

形状改变:

tensor.view((3,4)) 类似numpy中的reshape

In [76]: x.view(2,3)

Out[76]:

tensor([[ 1, 2, 3],

[ 4, 5, 10]], dtype=torch.int32)

tensor.t() 或tensor.transpose(dim0, dim1) 转置

In [79]: x.t()

Out[79]:

tensor([[ 1, 3, 5],

[ 2, 4, 10]], dtype=torch.int32)

tensor([[[1.,2.,3.],

[4.,5.,6.]],

[[2.,2.,3.],

[4.,5.,6.]],

[[3.,2.,3.],

[4.,5.,6.]],

[[4.,2.,3.],

[4.,5.,6.]]])

In [62]: b1.size()

Out[62]: torch.Size([4,2,3])

In [65]: b2.size()

Out[65]: torch.Size([4,3,2])

tensor.unsqueeze(dim) tensor.squeeze()填充或者压缩维度

# tensor.squeeze() 默认去掉所有长度是1的维度,# 也可以填入维度的下标,指定去掉某个维度

In [82]: a

Out[82]:

tensor([[[1],

[2],

[3]]])

In [83]: a.size()

Out[83]: torch.Size([1,3,1])

In [84]: a.squeeze()

Out[84]: tensor([1,2,3])

In [85]: a.squeeze(0)

Out[85]:

tensor([[1],

[2],

[3]])

In [86]: a.squeeze(2)

Out[86]: tensor([[1,2,3]])

In [87]:

类型的指定或修改

创建数据的时候指定类型

In [88]: torch.ones([2,3],dtype=torch.float32)

Out[88]:

tensor([[1.,1.,1.],

[1.,1.,1.]])

改变已有tensor的类型

In [17]: a

Out[17]: tensor([1,2], dtype=torch.int32)

In [18]: a.type(torch.float)

Out[18]: tensor([1.,2.])

In [19]: a.double()

Out[19]: tensor([1.,2.], dtype=torch.float64)

tensor的切片

In [101]: x

Out[101]:

tensor([[1.6437,1.9439,1.5393],

[1.3491,1.9575,1.0552],

[1.5106,1.0123,1.0961],

[1.4382,1.5939,1.5012],

[1.5267,1.4858,1.4007]])

In [102]: x[:,1]

Out[102]: tensor([1.9439,1.9575,1.0123,1.5939,1.4858])

切片赋值

In [12]: x[:,1]

Out[12]: tensor([1.9439,1.9575,1.0123,1.5939,1.4858])

In [13]: x[:,1] =1

In [14]: x[:,1]

Out[14]: tensor([1.,1.,1.,1.,1.])

注意:切片数据内存不连续

In [87]: a = torch.randn(2,3,4)

In [88]: a

Out[88]:

tensor([[[0.6204,0.9294,0.6449,-2.0183],

[-1.1809,0.4071,-1.0827,1.7154],

[0.0431,0.6646,2.0386,0.0777]],

[[0.0052,-0.1531,-0.7470,-0.8283],

[-0.1547,0.3123,-0.6279,-0.0132],

[-0.0527,-1.2305,0.7089,-0.4231]]])

In [89]: a[:,:1,:2]

Out[89]:

tensor([[[0.6204,0.9294]],

[[0.0052,-0.1531]]])

In [90]: a[:,:1,:2].view(1,4)

5. CUDA Tensor

什么是CUDA?

CUDA(Compute Unified Device Architecture):CUDA™是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题(GPU,或者叫做显卡,如果没有cuda这个框架,就只能完成图形渲染)。

如何使pytorch能够调用cuda框架(使用gpu完成深度学习计算)?

1.本机需要有一个NVIDIA的gpu

2.本机需要安装一个适配的gpu驱动

3.本机需要安装一个与该gpu适配的CUDA框架

4.在python环境中安装gpu版本pytorch

如何判断当前环境中的pytorch能否调用cuda框架进行计算?

torch.cuda这个模块增加了对CUDA tensor的支持,能够在cpu和gpu上使用相同的方法操作tensor

torch.cuda.is_available()

如何把cpu tensor转换成 cuda tensor

通过.to方法能够把一个tensor转移到另外一个设备(比如从CPU转到GPU)

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")

y = torch.ones_like(x, device=device) # 创建一个在cuda上的tensor

x = x.to(device) # 使用方法把x转为cuda的tensor

z = x + y

print(z)

print(z.to("cpu", torch.double)) # .to方法也能够同时设置类型

>>tensor([1.9806], device='cuda:0')

>>tensor([1.9806], dtype=torch.float64)

6. tensor的常用数学运算

tensor.add tensor.sub tensor.abs tensor.mm

In [204]: a = torch.tensor([1,2,3])

In [205]: b = torch.tensor(1)

In [206]: a.add(b)

Out[206]: tensor([2,3,4])

In [207]: a.sub(b)

Out[207]: tensor([0,1,2])

In [212]: c = torch.randn((3,))

In [213]: c

Out[213]: tensor([0.5161,-0.1732,1.0162])

In [214]: c.abs()

Out[214]: tensor([0.5161,0.1732,1.0162])

In [215]: c

Out[215]: tensor([0.5161,-0.1732,1.0162])

In [254]: a = torch.randn([3,4])

In [255]: b = torch.randn([4,5])

In [256]: a.mm(b)

Out[256]:

tensor([[0.6888,0.4304,-0.5489,0.3615,-1.1690],

[1.0890,-1.0391,-0.3717,-0.4045,3.4404],

[0.9885,0.1720,-0.2117,-0.1694,-0.5460]])

注意:tensor之间元素级别的数学运算同样适用广播机制。

In [145]: a = torch.tensor([[1,2], [3,4]])

In [146]: b = torch.tensor([1,2])

In [147]: a + b

Out[147]:

tensor([[2,4],

[4,6]])

In [148]: c = torch.tensor([[1,],[2]])

In [149]: a + c

Out[149]:

tensor([[2,3],

[5,6]])

简单函数运算 torch.exp torch.sin torch.cos

In [109]: torch.exp(torch.tensor([0, np.log(2)]))

Out[109]: tensor([1.,2.])

In [110]: torch.tensor([0, np.log(2)]).exp()

Out[110]: tensor([1.,2.])

In [111]: torch.sin(torch.tensor([0, np.pi]))

Out[111]: tensor([0.0000e+00,-8.7423e-08])

In [112]: torch.cos(torch.tensor([0, np.pi]))

Out[112]: tensor([1.,-1.])

in-place 原地操作 tensor.add_ tensor.sub_ tensor.abs_

In [224]: a

Out[224]: tensor([1,2,3])

In [225]: b

Out[225]: tensor(1)

In [226]: a.add(b)

Out[226]: tensor([2,3,4])

In [227]: a

Out[227]: tensor([1,2,3])

In [228]: a.add_(b)

Out[228]: tensor([2,3,4])

In [229]: a

Out[229]: tensor([2,3,4])

In [236]: c.abs()

Out[236]: tensor([0.5161,0.1732,1.0162])

In [237]: c

Out[237]: tensor([0.5161,-0.1732,1.0162])

In [238]: c.abs_()

Out[238]: tensor([0.5161,0.1732,1.0162])

In [239]: c

Out[239]: tensor([0.5161,0.1732,1.0162])

In [240]: c.zero_()

Out[240]: tensor([0.,0.,0.])

In [241]: c

Out[241]: tensor([0.,0.,0.])


统计操作 tensor.max, tensor.min, tensor.mean,tensor.median tensor.argmax

In[242]:a

Out[242]:tensor([0.5161,-0.1732,1.0162])

In[243]:a.max()

Out[243]:tensor(1.0162)

In[246]:a

Out[246]:

tensor([[0.3337,-0.5011,-1.4319,-0.6633],

[0.6620,1.3154,-0.9129,0.4685],

[0.3203,-1.6496,1.1967,-0.3174]])

In[247]:a.max()

Out[247]:tensor(1.3154)

In[248]:a.max(dim=0)

Out[248]:

torch.return_types.max(

values=tensor([0.6620,1.3154,1.1967,0.4685]),

indices=tensor([1,1,2,1]))

In[249]:a.max(dim=0)[0]

Out[249]:tensor([0.6620,1.3154,1.1967,0.4685])

In[250]:a.max(dim=0)[1]

Out[250]:tensor([1,1,2,1])

In[251]:a.argmax()

Out[251]:tensor(5)

In[252]:a.argmax(dim=0)

Out[252]:tensor([1,1,2,1])

通过前面的学习,可以发现torch的各种操作几乎和numpy一样

更多tensor的操作,参考https://pytorch.org/docs/stable/tensors.html

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,530评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 86,403评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,120评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,770评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,758评论 5 367
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,649评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,021评论 3 398
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,675评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,931评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,659评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,751评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,410评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,004评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,969评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,203评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,042评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,493评论 2 343