美文网首页机器学习与数据挖掘pythonai
一文搞懂word embeddding和keras中的embed

一文搞懂word embeddding和keras中的embed

作者: Babyzpj | 来源:发表于2018-05-03 15:12 被阅读2373次

    写这篇文章的初衷:

    最近带一个本科生做毕设,毕设内容是用lstm做情感分析。文章思路其实就是一个文本三分类的问题(正、中、负)。

    首先:

    该文章用到了word embedding,可以使用gensim里面的word2vec工具训练word embedding。训练出来的词向量是一个固定维度的向量。而训练的过程是使用word2vec里面的两个模型(CBOW或skip-gram)进行训练的。我们可以将这模型的原理是Huffman树。但是,今天我找到一个更加通俗、更加易于理解的解释:


    word embedding:http://blog.sina.com.cn/s/blog_1450ac3c60102x79x.html

    训练好的词向量模型被保存下来,该模型的本质就是一个m*n的矩阵,m代表训练语料中词的个数,n代表训练时我们设定的词向量维度。当我们训练好模型后再次调用时,就可以从该模型中直接获取到对应词的词向量。这种表示方法相比one-hot编码不知要好了多少倍,原因是one-hot编码是一个基于统计的编码方式,不触及到文本的语义层面。

    其次:

    通过上面我们可以拿到每个词的词向量,但是我们任务处理时一般是对句子或文本进行操作(如文本分类、情感分析等等),那下一步该怎么办呢?好,别着急,看下图:https://github.com/Babyzpj/NLP/tree/master/SentimentAnalysis-master
    通过该图我们知道,当我们拿到一个词向量后,那么一个句子或一个文本就可以用词表示成矩阵(假设一个句子有5个词,词向量维度是64,那么该矩阵就是5*64),然后可以用CNN或RNN(LSTM)模型将该矩阵编码成一个一维向量,并保留大多数文本信息。然后将该向量作为深度神经网络分类器的输入,即可得到最终的结果:

    image.png 这个过程是一个关键过程,这里给出两个参考文献,以方便理解:
    https://yq.aliyun.com/articles/221681
    http://blog.sina.com.cn/s/blog_1450ac3c60102x79x.html

    最后:

    下面给出使用keras将文本向量矩阵进行一维化的例子:

    from keras.preprocessing.sequence import pad_sequences
    from keras.models import Sequential
    from keras.layers import Dense
    from keras.layers import Flatten
    from keras.layers.embeddings import Embedding
    
    # define documents
    docs = ['Well done!',
            'Good work',
            'Great effort',
            'nice work',
            'Excellent!',
            'Weak',
            'Poor effort!',
            'not good',
            'poor work',
            'Could have done better.']
    
    # define class labels
    labels = [1,1,1,1,1,0,0,0,0,0]
    
    # integer encode the documents
    vocab_size = 50
    encoded_docs = [one_hot(d, vocab_size) for d in docs]
    print(encoded_docs)
    
    # pad documents to a max length of 4 words
    max_length = 4
    padded_docs = pad_sequences(encoded_docs, maxlen=max_length, padding='post')
    print(padded_docs)
    
    # define the model
    model = Sequential()
    model.add(Embedding(vocab_size, 8, input_length=max_length))
    model.add(Flatten())
    model.add(Dense(1, activation='sigmoid'))
    
    # compile the model
    model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['acc'])
    
    # summarize the model
    print(model.summary())
    
    # fit the model
    model.fit(padded_docs, labels, epochs=50, verbose=0)
    
    # evaluate the model
    loss, accuracy = model.evaluate(padded_docs, labels, verbose=0)
    print('Accuracy: %f' % (accuracy*100))
    
    以下为实验结果:
    [[33, 37], [18, 16], [31, 24], [33, 16], [5], [11], [34, 24], [11, 18], [34, 16], [48, 38, 37, 7]]
    
    [[33 37  0  0]
     [18 16  0  0]
     [31 24  0  0]
     [33 16  0  0]
     [ 5  0  0  0]
     [11  0  0  0]
     [34 24  0  0]
     [11 18  0  0]
     [34 16  0  0]
     [48 38 37  7]]
    _________________________________________________________________
    Layer (type)                 Output Shape              Param #   
    =================================================================
    embedding_1 (Embedding)      (None, 4, 8)              400       
    _________________________________________________________________
    flatten_1 (Flatten)          (None, 32)                0         
    _________________________________________________________________
    dense_1 (Dense)              (None, 1)                 33        
    =================================================================
    Total params: 433
    Trainable params: 433
    Non-trainable params: 0
    _________________________________________________________________
    None
    Accuracy: 89.999998
    
    Process finished with exit code 0
    

    参考:
    1、http://blog.sina.com.cn/s/blog_1450ac3c60102x79x.html
    2、https://machinelearningmastery.com/use-word-embedding-layers-deep-learning-keras/
    3、http://keras-cn.readthedocs.io/en/latest/layers/embedding_layer/

    相关文章

      网友评论

        本文标题:一文搞懂word embeddding和keras中的embed

        本文链接:https://www.haomeiwen.com/subject/xldkrftx.html