设为首页 - 加入收藏 ASP站长网(Aspzz.Cn)- 科技、建站、经验、云计算、5G、大数据,站长网!
热搜: 数据 创业者 手机
当前位置: 首页 > 运营中心 > 建站资源 > 经验 > 正文

PyTorch的4分钟教程,手把手教你完成线性回归

发布时间:2019-07-29 00:20 所属栏目:19 来源:大数据文摘
导读:大数据文摘出品 编译:洪颖菲、宁静 PyTorch深度学习框架库之一,是来自Facebook的开源深度学习平台,提供研究原型到生产部署的无缝衔接。 本文旨在介绍PyTorch基础部分,帮助新手在4分钟内实现python PyTorch代码的初步编写。 下文出现的所有功能函数,均

PyTorch

大数据文摘出品

编译:洪颖菲、宁静

PyTorch深度学习框架库之一,是来自Facebook的开源深度学习平台,提供研究原型到生产部署的无缝衔接。

本文旨在介绍PyTorch基础部分,帮助新手在4分钟内实现python PyTorch代码的初步编写。

下文出现的所有功能函数,均可以在中文文档中查看具体参数和实现细节,先附上pytorch中文文档链接:

https://pytorch-cn.readthedocs.io/zh/latest/package_references/torch/

coding前的准备

需要在电脑上安装Python包,导入一些科学计算包,如:numpy等,最最重要的,别忘记导入PyTorch,下文的运行结果均是在jupyter notebook上得到的,感兴趣的读者可以自行下载Anaconda,里面自带有jupyter notebook。(注:Anaconda支持python多个版本的虚拟编译环境,jupyter notebook是一个web形式的编译界面,将代码分割成一个个的cell,可以实时看到运行结果,使用起来非常方便!)

软件的配置和安装部分,网上有很多教程,这里不再赘述,纸上得来终觉浅,绝知此事要躬行。让我们直接进入Pytorch的世界,开始coding吧!

Tensors

Tensor张量类型,是神经网络框架中重要的基础数据类型,可以简单理解为一个包含单个数据类型元素的多维矩阵,tensor之间的通过运算进行连接,从而形成计算图。

下面的代码实例中创建了一个2*3的二维张量x,指定数据类型为浮点型(Float):

  1. import torch 
  2. #Tensors 
  3. x=torch.FloatTensor([[1,2,3],[4,5,6]]) 
  4. print(x.size(),"\n",x) 

运行结果:

PyTorch的4分钟教程,手把手教你完成线性回归

PyTorch包含许多关于tensors的数学运算。除此之外,它还提供了许多实用程序,如高效序列化Tensor和其他任意数据类型,以及其他有用的实用程序。

下面是Tensor的加法/减法的一个例子,其中torch.ones(*sizes, out=None) → Tensor返回一个全为1 的张量,形状由可变参数sizes定义。在实例中,和变量x相加的是创建的两个相应位置值为1的2*3的张量,相当于x每一维度的值+2,代码和运行结果如下所示:

  1. #Add tensors 
  2. x.add_(torch.ones([2,3])+torch.ones([2,3])) 

运行结果:

PyTorch的4分钟教程,手把手教你完成线性回归

同样的,PyTorch也支持减法操作,实例如下,在上面的运行结果基础上每一维度再减去2,x恢复到最初的值。

  1. #Subtract Tensor 
  2. x.sub_(torch.ones([2,3])*2) 

运行结果:

PyTorch的4分钟教程,手把手教你完成线性回归

其他PyTorch运算读者可以查阅上文给出的中文链接。

PyTorch and NumPy

用户可以轻松地在PyTorch和NumPy之间来回转换。

下面是将np.matrix转换为PyTorch并将维度更改为单个列的简单示例:

  1. #Numpy to torch tensors 
  2. import numpy as np 
  3. y=np.matrix([[2,2],[2,2],[2,2]]) 
  4. z=np.matrix([[2,2],[2,2],[2,2]],dtype="int16") 
  5. x.short() @ torch.from_numpy(z) 

运行结果:

PyTorch的4分钟教程,手把手教你完成线性回归

其中@为张量乘法的重载运算符,x为2*3的张量,值为[[1,2,3],[4,5,6]],与转换成tensor的z相乘,z的大小是3*2,结果为2*2的张量。(与矩阵乘法类似,不明白运行结果的读者,可以看下矩阵的乘法运算)

除此外,PyTorch也支持张量结构的重构reshape,下面是将张量x重构成1*6的一维张量的实例,与numpy中的reshape功能类似。

  1. #Reshape tensors(similar to np.reshape) 
  2. x.view(1,6) 

运行结果:

PyTorch的4分钟教程,手把手教你完成线性回归

GitHub repo概述了PyTorch到numpy的转换,链接如下:

https://github.com/wkentaro/pytorch-for-numpy-users

CPU and GPUs

PyTorch允许变量使用 torch.cuda.device上下文管理器动态更改设备。以下是示例代码:

  1. #move variables and copies across computer devices 
  2. x=torch.FloatTensor([[1,2,3],[4,5,6]]) 
  3. y=np.matrix([[2,2,2],[2,2,2]],dtype="float32") 
  4.  
  5.  
  6. if(torch.cuda.is_available()): 
  7.     xx=x.cuda(); 
  8.     y=torch.from_numpy(y).cuda() 
  9.     z=x+y 
  10. print(z) 
  11.  
  12. print(x.cpu()) 

运行结果:

PyTorch的4分钟教程,手把手教你完成线性回归

PyTorch Variables

变量只是一个包裹着Tensor的薄层,它支持几乎所有由Tensor定义的API,变量被巧妙地定义为自动编译包的一部分。它提供了实现任意标量值函数自动区分的类和函数。

(编辑:ASP站长网)

网友评论
推荐文章
    热点阅读