美文网首页大数据人工智能
人工智能00024 深度学习与图像识别书评24 神经网络基础06

人工智能00024 深度学习与图像识别书评24 神经网络基础06

作者: 良友知音 | 来源:发表于2023-11-23 08:06 被阅读0次

    输出层的神经元个数

    输出层的神经元数量应根据实际需要解决的问题来决定。

    对于分类问题,输出层的神经元个数一般会与类别的数量保持一致。

    比如,我们以MNIST(手写数字识别)为例,需要预测类别的数字从0到9(相当于是一个10分类的问题),因此我们将输出层的神经元个数设定为10个(输出层的每个神经元对应每一个数字)。

    MNIST数据集的前向传播

    MNIST数据集怎样实现神经网络的前向传播处理。

    神经网络的输入层共有784个神经元,输出层共有10个神经元。

    输入层的784这个数字来源于图像大小的乘积,即28*28=784,输出层10这个数字来源于10类别分类(数字0到9,共10类别)的数量。

    此外,这个神经网络包含2个隐藏层,第1个隐藏层包含50个神经元,第2个隐藏层包含100个神经元;

    这个50和100可以设置为任何值。

    完成MNIST数据集的前向传播的主要函数:MNIST的数据读取、ReLU激活函数、初始化网络init_network函数以及前向传播函数forward。

    其中,ReLU函数的实现在之前的篇幅中已经给出了实现方法,这里就不再赘述了。

    我们先来看一下如何读取MNIST数据集,对于这个数据集,之前我们在讲解KNN算法的时候就已经给出了代码,在这里,我们使用train_dataset和test_dataset作为数据源。完整实现代码具体如下:

    # MNIST dataset

    train_dataset = dsets.MNIST(root = '/ml/pymnist',      #选择数据的根目录

                              train = True,               #选择训练集

                              transform = transforms.ToTensor(),        #转换成tensor变量

                              download = False)  

    #不从网络上下载图片

    test_dataset = dsets.MNIST(root = '/ml/pymnist',       #选择数据的根目录

                              train = False,              #选择测试集

                              transform = transforms.ToTensor(),        #转换成tensor变量

                              download = False)           #不从网络上下载图片

    接着,我们来看下如何实现初始化网络init_network这个函数,在这里我们设置了

    weight_scale变量用于控制随机权重不要过大,我们将bias统一设置为1。

    实现代码具体如下:

    def init_network():

       network={}

       weight_scale = 1e-3

       network['W1']=np.random.randn(784,50) * weight_scale

       network['b1']=np.ones(50)

       network['W2']=np.random.randn(50,100) * weight_scale

       network['b2']=np.ones(100)

       network['W3']=np.random.randn(100,10) * weight_scale

       network['b3']=np.ones(10)

       return network

    接着我们再来实现forward函数,我们将之前一直使用的Sigmoid激活函数改为ReLU激活函数(ReLU函数计算更快,是目前主流的激活函数)。完整代码具体如下:

    def forward(network,x):

       w1,w2,w3 = network['W1'],network['W2'],network['W3']

    b1,b2,b3 = network['b1'],network['b2'],network['b3']

       a1 = x.dot(w1) + b1

       z1 = _relu(a1)

       a2 = z1.dot(w2) + b2

       z2 = _relu(a2)

       a3 = z2.dot(w3) + b3

       y = a3

       return y  

    最后,我们测试下在测试集下使用神经网络(仅包含前向传播)的准确度能达到多少。函数以Numpy数组的形式输出与各个标签对应的概率。

    比如输出[0.1,0.5,0.3,...,0.04]的数组,该数组表示“0”的概率为0.1,“1”的概率为0.5等。

    之后,我们取出这个概率列表中的最大值的索引(第几个元素的概率最高)作为预测结果(使用np.argmax(x)函数取出数组中的最大值的索引)。

    最后通过比较神经网络所预测的分类答案和正确标签,输出回答正确的概率。完整代码具体如下:

    network = init_network()

    accuracy_cnt = 0

    x = test_dataset.test_data.numpy().reshape(-1,28*28)

    labels = test_dataset.test_labels.numpy() #tensor转numpy

    for i in range(len(x)):

       y = forward(network, x[i])

       p = np.argmax(y) #获取概率最高的元素的索引

       if p == labels[i]:

           accuracy_cnt += 1

    print("Accuracy:" + str(float(accuracy_cnt) / len(x) * 100) + "%")

    cy约为10%左右(对于这个结果,我们其实是可以接受的,因为是10分类,哪怕我们随便猜,猜对的概率也在10%左右),并且因为我们只做了前向传播,没有做反向传播,所以我们的权重以及bias都不是最优的。

    相关文章

      网友评论

        本文标题:人工智能00024 深度学习与图像识别书评24 神经网络基础06

        本文链接:https://www.haomeiwen.com/subject/kdnwwdtx.html