美文网首页
bert+seq2seq 周公解梦,看AI如何解析你的梦境?

bert+seq2seq 周公解梦,看AI如何解析你的梦境?

作者: saiwaiyanyu | 来源:发表于2019-11-24 11:15 被阅读0次

本文代码: https://github.com/saiwaiyanyu/tensorflow-bert-seq2seq-dream-decoder

介绍

在参与的项目和产品中,涉及到模型和算法的需求,主要以自然语言处理(NLP)和知识图谱(KG)为主。NLP涉及面太广,而聚焦在具体场景下,想要生产落地的还需要花很多功夫。

作为NLP的主要方向,情感分析,文本多分类,实体识别等已经在项目中得到应用。例如

  • 通过实体识别,抽取文本中提及到的公司、个人以及金融产品等。
  • 通过情感分析,判别新闻资讯,对其提到的公司和个人是否利好?
  • 通过文本多分类,判断资讯是否是高质量?判断资讯的行业和主题?

具体详情再找时间分享。而文本生成、序列到序列(Sequence to Sequence)在机器翻译、问答系统、聊天机器人中有较广的应用,在参与的项目中暂无涉及,本文主要通过tensorflow+bert+seq2seq实现一个简单的问答模型,旨在对seq2seq的了解和熟悉。

数据

关于seq2seqdemo数据有很多,例如小黄鸡聊天语料库,影视语料库,翻译语料库等等。由于最近总是做些奇怪的梦,便想着,做一个AI解梦的应用玩玩,just for fun

通过采集从网上采集周公解梦数据,通过清洗,形成

  • dream:梦境;
  • decode:梦境解析结果。

这样的序列对,总计33000+ 条记录。数据集

{
    "dream": "梦见商人或富翁",
    "decode": "是个幸运的预兆,未来自己的事业很有机会成功,不过如果梦中的富翁是自己,则是一个凶兆。。"
}

模型准备

bert

下载 bert

$ git clone https://github.com/google-research/bert.git

下载中文预训练模型

$ wget -c https://storage.googleapis.com/bert_models/2018_11_03/chinese_L-12_H-768_A-12.zip
$ unzip chinese_L-12_H-768_A-12.zip 

bert + seq2seq

bertinput:

    
self.input_ids = tf.placeholder(
    dtype=tf.int32,
    shape=[None, None],
    name="input_ids"
)
self.input_mask = tf.placeholder(
    dtype=tf.int32,
    shape=[None, None],
    name="input_mask"
)
self.segment_ids = tf.placeholder(
    dtype=tf.int32,
    shape=[None, None],
    name="segment_ids"
)
self.dropout = tf.placeholder(
    dtype=tf.float32,
    shape=None,
    name="dropout"
)

bertmodel :

self.bert_config = modeling.BertConfig.from_json_file(bert_config)
    model = modeling.BertModel(
        config=self.bert_config,
        is_training=self.is_training,
        input_ids=self.input_ids,
        input_mask=self.input_mask,
        token_type_ids=self.segment_ids,
        use_one_hot_embeddings=False
    )

seq2seqencoder_embedding 替换:

# 默认seq2seq model_inputs
# self.encoder_embedding = tf.Variable(tf.random_uniform([from_dict_size, embedded_size], -1, 1),name ="encoder_embedding")
# self.model_inputs = tf.nn.embedding_lookup(self.encoder_embedding, self.X),
#  替换成bert
self.embedded = model.get_sequence_output()
self.model_inputs = tf.nn.dropout(self.embedded, self.dropout)

seq2seqdecoder_embedding 替换:

# 默认seq2seq decoder_embedding
# self.decoder_embedding = tf.Variable(tf.random_uniform([to_dict_size, embedded_size], -1, 1),name="decoder_embedding")
#  替换成bert
self.decoder_embedding = model.get_embedding_table()
self.decoder_input = tf.nn.embedding_lookup(self.decoder_embedding, decoder_input),

数据预处理

for i in range(len(inputs)):
    tokens = inputs[i]
    inputs_ids = model.tokenizer.convert_tokens_to_ids(inputs[i])
    segment_ids = [0] * len(inputs_ids)
    input_mask = [1] * len(inputs_ids)
    tag_ids = model.tokenizer.convert_tokens_to_ids(outputs[i])
    data.append([tokens, tag_ids, inputs_ids, segment_ids, input_mask])
    

def pad_data(data):
    c_data = copy.deepcopy(data)
    max_x_length = max([len(i[0]) for i in c_data])
    max_y_length = max([len(i[1]) for i in c_data]) 
    # 这里生成的序列的tag-id 和 input-id 长度要分开
    # print("max_x_length : {} ,max_y_length : {}".format( max_x_length,max_y_length))
    padded_data = []
    for i in c_data:
        tokens, tag_ids, inputs_ids, segment_ids, input_mask = i
        tag_ids = tag_ids + (max_y_length - len(tag_ids)) * [0]
        # 注意tag-ids 的长度补充,和预测的序列长度一致。
        inputs_ids = inputs_ids + (max_x_length - len(inputs_ids)) * [0]
        segment_ids = segment_ids + (max_x_length - len(segment_ids)) * [0]
        input_mask = input_mask + (max_x_length - len(input_mask)) * [0]
        assert len(inputs_ids) == len(segment_ids) == len(input_mask)
        padded_data.append(
            [tokens, tag_ids, inputs_ids, segment_ids, input_mask]
        )
    return padded_data

训练

$ python3 model.py --task=train \
    --is_training=True \
    --epoch=100 \
    --size_layer=256 \
    --bert_config=chinese_L-12_H-768_A-12/bert_config.json \
    --vocab_file=chinese_L-12_H-768_A-12/vocab.txt \
    --num_layers=2 \
    --learning_rate=0.001 \
    --batch_size=16 \
    --checkpoint_dir=result

15744775485612.jpg


image

预测

$ python3 model.py --task=predict \
        --is_training=False \
        --epoch=100 \
        --size_layer=256 \
        --bert_config=chinese_L-12_H-768_A-12/bert_config.json \
        --vocab_file=chinese_L-12_H-768_A-12/vocab.txt \
        --num_layers=2 \
        --learning_rate=0.001 \
        --batch_size=16 \
        --checkpoint_dir=result

15745175850857.jpg


image image

Just For Fun ^_^

本文代码: https://github.com/saiwaiyanyu/tensorflow-bert-seq2seq-dream-decoder

相关文章

  • bert+seq2seq 周公解梦,看AI如何解析你的梦境?

    本文代码: https://github.com/saiwaiyanyu/tensorflow-bert-seq2...

  • 连续三天做了好梦

    今天是第三天,一早醒来还能记得住梦境的内容,又查了一下周公解梦。 这三天查周公解梦的解析都是说,我有好运气,我会遇...

  • java解析周公解梦和八字算命

    1,mob账号拿到key 2,封装解析周公解梦的方法: 3,查看周公解梦结果: 4,封装八字算命的方法: 5,查看...

  • 梦境与身心健康

    从《周公解梦》开始,对梦境的解析一直是让人们好奇的话题。当时的梦境分析就和预言算命一样,极其神秘而且又带着强烈的迷...

  • 周公解梦

    《周公解梦》是靠人的梦来卜吉凶的一本于民间流传的解梦书籍,共有七类梦境的解述。 书中的周公就是周公旦,孔子梦的“吾...

  • 解梦到底哪家强

    文|素手调羹 古今中外,对梦都有很多研究,比如《周公解梦》,比如佛洛依德《梦的解析》。时至今日,对梦境仍然没有一个...

  • 中国有周公解梦,将梦境与现实联系,企图从梦中解析做梦人的气运,健康等。不过现代人都知道这是不靠谱的,多数只是用来玩...

  • 解梦难吗?敢不敢直面梦境和死亡?

    你知道解梦有多难吗? 超难。 但不是不可以—— 哟嚯, 来! 1 《梦的解析》《周公解梦》两部巨著讲解了“梦是自我...

  • 说 梦(一)

    近几年我养成了一个习惯,醒来会回忆梦境,尽量把它们记录下来。 梦到底代表了什么,从周公解梦到弗洛伊德《梦的解析》,...

  • 周公位极人臣却丝毫没有异心,他真的就那么干净吗?

    曹操有首诗曾经说到“周公吐哺,天下归心。”但我们熟知周公,很多人会联想到周公解梦。但是你要是以为周公只会解梦,那就...

网友评论

      本文标题:bert+seq2seq 周公解梦,看AI如何解析你的梦境?

      本文链接:https://www.haomeiwen.com/subject/zehlwctx.html