美文网首页pytorch
4. pytorch-全连接网络(回归)

4. pytorch-全连接网络(回归)

作者: FantDing | 来源:发表于2018-06-30 11:33 被阅读194次

参考莫烦教程

import torch
import numpy as np
from torch.autograd import Variable
import torch.nn.functional as F
import matplotlib.pyplot as plt


class Net(torch.nn.Module):
    def __init__(self):
        super().__init__()
        self.l1 = torch.nn.Linear(1, 10) # 不需要考虑batch_size
        self.l2 = torch.nn.Linear(10, 1)

    def forward(self, x):
        x = F.relu(self.l1(x))
        x = self.l2(x)
        return x


if __name__ == "__main__":
    # 1. 数据准备
    x_np = np.linspace(-1, 1, 100, dtype=np.float32)  # 保证使用from_numpy生成FloatTensor
    x = torch.unsqueeze(torch.from_numpy(x_np), dim=1)
    y = x ** 2 + 0.2 * torch.rand(x.size())
    x, y = Variable(x), Variable(y)
    # plt.scatter(x.data.numpy(), y.data.numpy())
    # plt.show()

    # 2. 定义网络结构
    neural_net = Net()
    # print(neural_net) # 查看网络结构

    # 3. 训练网络
    optimizer = torch.optim.SGD(neural_net.parameters(), lr=0.5)
    loss_F = torch.nn.MSELoss()
    # 画图
    plt.ion()  # 打开交互模式,调用plot会立即显示,无需使用show()
    for t in range(100):
        # 重载了__call__()方法
        prediction = neural_net(x)  # 默认把第一维看成batch_size,定义网络时并不关心batch_size

        loss = loss_F(prediction, y)
        if t % 10 == 0:
            # 画图
            plt.cla()  # 清空图
            plt.scatter(x.data.numpy(), y.data.numpy())
            plt.plot(x.data.numpy(), prediction.data.numpy(), color="red", linewidth=2.0)
            plt.text(0.5, 0.1, "loss: {:.5f}".format(loss.data.numpy()))
            plt.pause(0.1)  # 如果不暂停,循环10次会非常快。导致只能看到最后一张图

        optimizer.zero_grad()  # 因为每次反向传播的时候,变量里面的梯度都要清零
        loss.backward()  # 变量得到了grad
        optimizer.step()  # 更新参数
    plt.ioff()
    plt.show()  # 使用show()会阻塞(即,窗口不会变化,也不会自动退出)
image.png

相关文章

  • 4. pytorch-全连接网络(回归)

    参考莫烦教程

  • [Machine Learning From Scratch]-

    全连接层实现代码: 全连接神经网络做线性回归 一、定义前向、后向传播本文将用numpy实现全连接层的前向过程和反向...

  • Tensorflow学习-No.1

    0 深度学习模型训练入门 如何通过tensorflow训练最简单的全连接网络,生成线性回归模型。 来自https:...

  • Dense

    作为一个单层神经网络,线性回归输出层中的神经元和输入层中各个输入完全连接。因此,线性回归的输出层又叫全连接层。在G...

  • 9- 深度学习之神经网络核心原理与算法-全连接网络GPU实现

    全连接网络GPU实现 加入Dropout 封装全连接层 之前我们的全连接网络只能运行在cpu上,我们改造为gpu实...

  • CNN

    卷积神经网络(Convolution Neural Network) 基于全连接层和CNN的神经网络示意图 全连接...

  • PyTorch如何确定全连接的参数

    如何确定全连接的参数 虽然目前使用全连接层的网络模型越来越少,但是仍有部分网络需要全连接层,但是如果通过CNN计算...

  • 模型轻量化方法总结

    网络剪枝 剪枝目的在于找出网络冗余连接并移除。由于全连接的连接冗余度远高于卷积层,传统的剪枝多在全连接层对冗余神经...

  • 全连接卷积神经网络 FCN

    (一)全连接卷积神经网络(FCN) (1) 全连接卷积神经网络简介 FCN是深度神经网络用于语义分割的奠基性工作,...

  • 2019-01-18学习总结

    全连接网络VS卷积网络 1、全连接网络不适合图像识别任务的原因: 参数数量太多考虑一个输入1000*1000...

网友评论

    本文标题:4. pytorch-全连接网络(回归)

    本文链接:https://www.haomeiwen.com/subject/ordtuftx.html