美文网首页机器学习实战
深度学习——RNN(3)

深度学习——RNN(3)

作者: 飘涯 | 来源:发表于2018-06-05 12:23 被阅读6次

前言:在语言结构中,由于词语之间是存在时序关系的,所以RNN在语言处理方面发挥着很大的优势,下面构建一个最简单的RNN结构来实现一个给定几个单词预测下一个单词是什么。实现的关键是对单词和数字之间的相互转换。
详细代码可见:https://github.com/dctongsheng/vocab_predict_rnn
读取数据:

def read_data(filename):
    with open(filename) as f:
        content = f.readlines()
        #去掉空格
        content = [x.strip() for x in content]
        #得到单词
        content_size = len(content)
        print(content_size)
        words = [content[i].split() for i in range(content_size)]
        words = np.array(words)
        # 将格式转换,认为一行一个样本,一个样本中的序列长度未知,每个时刻一个对应的单词或者符号
        words = np.reshape(words,[-1,])

将单词转化为字典的形式

def build_dataset(words):
    count = collections.Counter(words).most_common()
    print(count)
    dicts = {}
    k=0
    # return count
    for word,_ in count:
        dicts[word] = k
        k+=1
    reves_dict = dict(zip(dicts.values(),dicts.keys()))
    return dicts,reves_dict

构建网络结构,采用深层的rnn结构,静态加载数据

def rnn(x):
    x = tf.reshape(x,[-1,n_inputs])
    x = tf.split(x,n_inputs,1)
    rnn_cell = tf.nn.rnn_cell.MultiRNNCell(cells=[tf.nn.rnn_cell.LSTMCell(num_units=n_hidden1),
                                                  tf.nn.rnn_cell.GRUCell(num_units=n_hidden2),
                                                  tf.nn.rnn_cell.BasicRNNCell(num_units=n_hidden3)])
    output,state = tf.nn.static_rnn(rnn_cell,x,dtype=tf.float32)
    output=output[-1]
    return tf.matmul(output, weights['out']) + biases['out']

定义损失函数

pred = rnn(x)
cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=pred,labels=y))
train = tf.train.RMSPropOptimizer(learning_rate=learn_rate).minimize(cost)

定义准确率

cp = tf.equal(tf.argmax(pred,1),tf.argmax(y,1))
accury = tf.reduce_mean(tf.cast(cp,tf.float32))

运行模型,运行模型过程中,对x,y的构造如下

        keys = [dicts[str(train_data[i])] for i in range(offset,offset+n_inputs)]
        keys = np.reshape(np.array(keys), [-1, n_inputs, 1])
        #构建y
        out_one_hot = np.zeros([vocab_size],dtype=np.float32)
        out_one_hot[dicts[str(train_data[offset+n_inputs])]] =1.0
        out_one_hot = np.reshape(out_one_hot,[1,-1])
        # 训练
        _,_acc,_cost,_pred=sess.run([train,accury,cost,pred],feed_dict={x:keys,y:out_one_hot})

输出结构如下:



可以看到当运行到10000词的时候准确率已经上来了,并且连续的三次输出的结果都预测正确了

相关文章

  • 深度学习 RNN基础

    深度学习 RNN基础 目录 1、定义 2、有了CNN,为什么需要RNN? 3、RNN的主要应用领域有哪些呢? 4、...

  • 深度学习——RNN(3)

    前言:在语言结构中,由于词语之间是存在时序关系的,所以RNN在语言处理方面发挥着很大的优势,下面构建一个最简单的R...

  • BAT机器学习面试1000题系列(二)

    101.深度学习(CNN RNN Attention)解决大规模文本分类问题。 用深度学习(CNN RNN Att...

  • 深度学习笔记之循环神经网络RNN学习笔记

    关键词:循环神经网络;RNN;深度学习;深度神经网络 循环神经网络 RNN 李宏毅: 机器学习,深度学习的课件参考...

  • keras学习-RNN

    keras-RNN 参考《python深度学习》 关于RNN questions : 每次 RNN神经元个数代表什...

  • 2019-02-27 Lstm函数

    tf.contrib.rnn.BasicLSTMCell 深度学习(07)_RNN-循环神经网络-02-Tenso...

  • 5WordEmbedding(下)-深度学习

    Word Embedding 之深度学习 RNN: RNN引入了隐状态h(hidden state)的概念,h1接...

  • 一文看懂命名实体识别(NER)的前世今生

    1.TensorFlow (RNN)深度学习 双向LSTM(BiLSTM)+CRF 实现 sequence lab...

  • RNN

    本文章参考《神经网络与深度学习》吴岸城 著图片来源Christopher Olah 的博文 什么是RNN RNN是...

  • RNN循环神经网络

    RNN 时间序列在深度学习的解决方案就是RNN了,RNN又叫循环神经网络。 它可以表示为该图。 又一个神经网络递归...

网友评论

    本文标题:深度学习——RNN(3)

    本文链接:https://www.haomeiwen.com/subject/bbepsftx.html