美文网首页Pytorch
Pytorch学习(一)、Tensor介绍

Pytorch学习(一)、Tensor介绍

作者: Latet | 来源:发表于2019-02-15 16:22 被阅读12次

    前言

    未经允许,不得转载,谢谢~~~
    本文主要介绍Pytorch中的Tensor,Tensor目前已经成为一种重要的数据结构,它不仅在pytorch中出现,也在当前主流的深度学习框架中存在,比如Tensorflow、Torch和MXnet等。


    Tensor可以理解为高维数组,0维就是一个数(标量),一维就是一个向量,二维就是矩阵,或者更高的高维数组。

    一、tensor类型和存储

    在pytorch中判断一个数据结构x是否为tensor的语句为:

    torch.is_tensor(x)
    

    在pytorch中判断一个数据结构x存储是否为pytorch存储对象的语句为:

    torch.is_storage(x)
    

    实际操作
    其中,torch.numel()是用来确定tensor中数据个数。

    import torch
    x = [1,2,3,4,5]
    print(torch.is_tensor(x))
    print(torch.is_storage(x))
    y = torch.randn(1,2,3,4,5)
    print(torch.is_tensor(y))
    print(torch.is_storage(y))
    print('the number of y is:',torch.numel(y))
    

    输出为:

    False
    False
    True
    False
    the number of y is: 120
    

    二、 tensor和numpy的互相转换

    在pytorch中,tensor能够很好的跟numpy进行转换,这样上手就很方便。但是,装换时numpy类型需提前转换成array,对列表list这类数据转换成tensor会把报错。
    实际操作:

    import numpy as np
    x1 = np.array(x)
    x2 = torch.from_numpy(x1)#numpy转换成tensor
    x3 = x2.numpy()#tensor转换成numpy
    print(x1)
    print(x2)
    print(x3)
    

    输出:

    [1 2 3 4 5]
    tensor([1, 2, 3, 4, 5], dtype=torch.int32)
    [1 2 3 4 5]
    

    三、tensor的操作

    tensor的操作和python、matlab操作都差不多。
    生成随机矩阵和随机数的tensor
    rand:随机生成(0,1)之间的tensor;
    randn:随机生成均值为0方差为1的tensor;
    randperm:生成随机数
    实例:

    print('生成随机矩阵0-1',torch.rand(10))
    print('生成正态分布矩阵(均值为0方差为1):',torch.randn(4,5))
    print('生成随机数:',torch.randperm(10))
    

    输出:

    生成随机矩阵0-1 tensor([0.9267, 0.7695, 0.6366, 0.9078, 0.9745, 0.9479, 0.0129, 0.7216, 0.2206,
            0.2062])
    生成正态分布矩阵(均值为0方差为1): tensor([[-0.8793, -1.1207, -0.4978, -0.2495,  0.0289],
            [ 0.4196, -0.1772,  0.6592, -1.3391,  0.9928],
            [ 0.0786,  1.2136, -0.4002, -0.2884, -0.9214],
            [-0.0820,  1.6583, -1.2440,  1.3483,  0.2718]])
    生成随机数: tensor([4, 3, 7, 9, 0, 6, 1, 8, 5, 2])
    

    生成固定变换范围的tensor
    在matlab中,生成固定数组有linspace均分操作,在pytorch中也有相同的
    实例:

    y_linear = torch.linspace(2,10,steps=25)#线性均分操作
    print(y_linear)
    y_log = torch.logspace(-10,10,steps=15)#log均分操作
    print(y_log)
    print(torch.arange(10,20,2))#生成步长为2的一维tensor
    print(torch.arange(10,20))#生成步长为1的一维tensor
    

    输出:

    tensor([ 2.0000,  2.3333,  2.6667,  3.0000,  3.3333,  3.6667,  4.0000,  4.3333,
             4.6667,  5.0000,  5.3333,  5.6667,  6.0000,  6.3333,  6.6667,  7.0000,
             7.3333,  7.6667,  8.0000,  8.3333,  8.6667,  9.0000,  9.3333,  9.6667,
            10.0000])
    tensor([1.0000e-10, 2.6827e-09, 7.1969e-08, 1.9307e-06, 5.1795e-05, 1.3895e-03,
            3.7276e-02, 1.0000e+00, 2.6827e+01, 7.1968e+02, 1.9307e+04, 5.1795e+05,
            1.3895e+07, 3.7276e+08, 1.0000e+10])
    tensor([10, 12, 14, 16, 18])
    tensor([10, 11, 12, 13, 14, 15, 16, 17, 18, 19])
    

    tensor操作符
    在pytorch中,操作符和matlab、python也比较相似,比如add、mul、exp等。
    实例:

    a = torch.Tensor([[1,2],[3,4]])
    a_mul = torch.mul(a,2)
    print(a_mul)
    a_add = torch.add(a,200)
    print(a_add)
    

    输出:

    tensor([[2., 4.],
            [6., 8.]])
    tensor([[201., 202.],
            [203., 204.]])
    

    在pytorch中还有许多操作,比如找到最大值max()函数,最小值min()函数,找到最值的位置argmin(),argmax()等。其中dim就是代表行还是列的操作。但是,pytorch最重要的就是可以将tensor送入到GPU中运行,实际操作为:

    if torch.cuda.is_available():#事先判断cuda是否使用
        x = x.cuda()##送入GPU运算
    

    参考资料

    [1].pytorch中文手册
    [2].Pytorch Recipes

    相关文章

      网友评论

        本文标题:Pytorch学习(一)、Tensor介绍

        本文链接:https://www.haomeiwen.com/subject/shfmeqtx.html