美文网首页
第一次打卡 Task01

第一次打卡 Task01

作者: 几时见得清梦 | 来源:发表于2020-02-14 18:35 被阅读0次

    一、线性回归

    1. 线性回归假设输出与各个输入之间是线性关系。
    2. 在模型训练中,我们需要衡量价格预测值与真实值之间的误差。通常我们会选取一个非负数作为误差,且数值越小表示误差越小。一个常用的选择是平方函数。
    3. 当模型和损失函数形式较为简单时,上面的误差最小化问题的解可以直接用公式表达出来。这类解叫作解析解(analytical solution)。本节使用的线性回归和平方误差刚好属于这个范畴。然而,大多数深度学习模型并没有解析解,只能通过优化算法有限次迭代模型参数来尽可能降低损失函数的值。这类解叫作数值解(numerical solution)。
    4. 在求数值解的优化算法中,小批量随机梯度下降(mini-batch stochastic gradient descent)在深度学习中被广泛使用。它的算法很简单:先选取一组模型参数的初始值,如随机选取;接下来对参数进行多次迭代,使每次迭代都可能降低损失函数的值。在每次迭代中,先随机均匀采样一个由固定数目训练数据样本所组成的小批量(mini-batch)β,然后求小批量中数据样本的平均损失有关模型参数的导数(梯度),最后用此结果与预先设定的一个正数的乘积作为模型参数在本次迭代的减小量。

    二、Softmax与分类模型

    1. 直接使用输出层的输出有两个问题:
      1、由于输出层的输出值的范围不确定。我们难以直观上判断这些值的意义。例如,刚才举的例子中的输出值10表示“很置信”图像类别为猫,因为该输出值是其他两类的输出值的100倍。但如果o1=o3=10^3 ,那么输出值10却又表示图像类别为猫的概率很低。
      2、由于真实标签是离散值,这些离散值与不确定范围的输出值之间的误差难以衡量。

    softmax运算符(softmax operator)解决了以上两个问题。它通过下式将输出值变换成值为正且和为1的概率分布

    1. .torchvision主要由以下几部分构成:
      torchvision.datasets: 一些加载数据的函数及常用的数据集接口;
      torchvision.models: 包含常用的模型结构(含预训练模型),例如AlexNet、VGG、ResNet等;
      torchvision.transforms: 常用的图片变换,例如裁剪、旋转等;
      torchvision.utils: 其他的一些有用的方法

    三、多层感知机

    多层感知机(multilayer perceptron,MLP)

    1. 关于激活函数的选择
      ReLu函数是一个通用的激活函数,目前在大多数情况下使用。但是,ReLU函数只能在隐藏层中使用。
      用于分类器时,sigmoid函数及其组合通常效果更好。由于梯度消失问题,有时要避免使用sigmoid和tanh函数。
      在神经网络层数较多的时候,最好使用ReLu函数,ReLu函数比较简单计算量少,而sigmoid和tanh函数计算量大很多。
      在选择激活函数的时候可以先选用ReLu函数如果效果不理想可以尝试其他激活函数。

    相关文章

      网友评论

          本文标题:第一次打卡 Task01

          本文链接:https://www.haomeiwen.com/subject/oiejfhtx.html