美文网首页
tensorflow 创建CNN神经网络

tensorflow 创建CNN神经网络

作者: 朱宏飞 | 来源:发表于2018-08-26 16:55 被阅读0次

通过几天的学习终于将CNN给克服了,有收获会在程序注释中体现。简单介绍介绍下创建的神经网络,由  卷积层 ,池化层 ,卷积层 ,池化层,全连接层,分类层构成。

有几点要注意:

第一,在CNN中通常采用RELU作为激励函数,将线性的变成非线性的。

第二,优化器的选择,一般选用AdamOptimizer,不用梯度下降法,梯度下降一般用在较为简单的数据上。

第三,卷积和池化所需的数据应该为3维数据,全连接所需数据为1维数据。

第四,为了防止过拟合引入,tf.nn.dropout()用在全连接层。Dropout就是在不同的训练过程中随机扔掉一部分神经元。也就是让某个神经元的激活值以一定的概率p,让其停止工作,这次训练过程中不更新权值,也不参加神经网络的计算。但是它的权重得保留下来(只是暂时不更新而已),因为下次样本输入时它可能又得工作了。训练过程需要用到dropout,在测试中不需要用到反而应当将所有的神经元用上。

import tensorflow as tf

from tensorflow.examples.tutorials.mnist import input_data

mnist=input_data.read_data_sets('MNIST_data',one_hot=True)

#创建一个神经层

import numpy as np

def add_layer(inputs,in_size,out_size,activation_function=None):

    #这里激励函数默认为0,则可认为激励函数为线性

    Weights=tf.Variable(tf.random_normal([in_size,out_size]))

    biases=tf.Variable(tf.zeros([1,out_size]))+0.1

    Wx_plus_b=tf.matmul(inputs,Weights)+biases

    #还未被激活的值被赋予在Wx_plus_b中,下一步是去激活他

    if activation_function is None:

        outputs=Wx_plus_b

        #说明outputs是一个线性方程,不需要去activation_function.

        #使用activation_funtion将一个线性的函数变换成一个非线性的函数

    else:

    outputs=activation_function(Wx_plus_b)

    return outputs

def compute_accuracy(v_xs,v_ys):

    global prediction

    y_pre=sess.run(prediction,feed_dict={xs:v_xs})

    correct_prediction=tf.equal(tf.argmax(y_pre,1),tf.argmax(v_ys,1))#tf.argmax()对矩阵按行或按列计算最大值所在位置,0表示按列,1表示按行

    accuracy=tf.reduce_mean(tf.cast(correct_prediction,tf.float32))

    #tf.cast(),是类型转换函数,转换成float32类型

    result=sess.run(accuracy)

    return result

#用于初始化所有的权值w

def weight_variable(shape):

    intial=tf.truncated_normal(shape,stddev=0.1)

    #tf.truncated_normal(shape, mean, stddev) :shape表示生成张量的维度,mean是均值,stddev是标准差。

    return tf.Variable(initial)

#用于初始化所有的偏置项

def bias_variable(shape):

    initial=tf.constant(0.1,shape=shape)

    return tf.Variable(initial)

#用于构建卷积层

def conv2d(x,W):

    #stride[1,x_movement,y_movement,1]

    return tf.nn.conv2d(x,W,strides=[1,1,1,1],padding='SAME')

#用于构建池化层

def max_pool_2x2(x):

    #池化窗口的大小,取一个四维向量,一般是[1, height, width, 1],因为我们不想在batch和channels上做池化,所以这两个维度设为了1

    return tf.nn.max_pool(x,ksize=[1,2,2,1],strides=[1,2,2,1],padding='SAME')

#defind placeholder for inputs to network

    xs=tf.placeholder(tf.float32,[None,784])#28*28

    ys=tf.placeholder(tf.float32,[None,10])

    keep_prob=tf.placeholder(tf.float32)

    x_image=tf.reshape(xs,[-1,28,28,1])

    #理解一下[-1,28,28,1],-1含义我们不用去管这个维度的大小,reshape会自动计算。可以理解为导入数据的多少张图片。28,28长和宽,1表示图像时黑白的,若是彩色图像就该改变为3

    print(x_image.shape)#[n_sample,28,28,1]

##conv1 layer#

  W_conv1=weight_variable([5,5,1,32])#patch 5*5,insize=1,outsize=32  实在不理解就把输入的图像厚度为1,输出的为32

  b_conv1=bias_variable([32])

  h_conv1=tf.nn.relu(conv2d(x_image,W_conv1)+b_conv1)#output size 28*28*32

  h_pool1=max_pool_2x2(h_conv1)        #output size 14*14*32

##conv2 layer##

    W_conv2=weight_variable([5,5,32,64])#patch 5*5,insize=32,outsize=64  实在不理解就把输入的图像厚度为1,输出的为32

  b_conv2=bias_variable([64])

  h_conv2=tf.nn.relu(conv2d(h_pool1,W_conv2)+b_conv2)#output size 14*14*64

  h_pool2=max_pool_2x2(h_conv2)        #output size 7*7*64

##func1 layer##

  W_fc1=weight_variable([7*7*64,1024])

  b_fc1=bias_variable([1024])

  #卷积和池需要时3维数据,全连接需要1维数据

  #[n_samples,7,7,64]转换成[n_samples,7*7*64]

  h_pool2_flat=tf.reshape(h_pool2,[-1,7*7*64])

  h_fc1=tf.nn.relu(tf.matmul(h_pool2_flat,W_fc1)+b_fc1)

  #防止over fiting

  h_fc1_drop=tf.nn.dropout(h_fc1,keep_prob)

##func2 layer##

  W_fc2=weight_variable([1024,10])

  b_fc2=bias_variable([10])

  #卷积和池需要时3维数据,全连接需要1维数据

  predicition=tf.nn.softmax(tf.matmul(h_fc1_drop,W_fc2)+b_fc2)

#the error between prediction and real data

cross_entropy=tf.reduce_mean(-tf.reduce_sum(ys*tf.log(prediction)),reducition_indices=[1]))

#交叉熵

train_step=tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)

init=tf.initialize_all_variables()

with tf.Session() as sess:

    sess.run(init)

for i in range(1000):

    batch_xs,batch_ys=mnist.train.next_batch(100)#随机选取100组数据进行训练

    sess.run(train_step,feed_dict={xs:batch_xs,ys:batch_ys},keep_prob:0.5)

    if i%50==0:

        print(compute_accuracy(mnist.test.images,mnist.test.labels))

相关文章

网友评论

      本文标题:tensorflow 创建CNN神经网络

      本文链接:https://www.haomeiwen.com/subject/vvpoiftx.html