美文网首页
【lhy人类自然语言处理】 22 Generation

【lhy人类自然语言处理】 22 Generation

作者: pub_bug | 来源:发表于2021-07-25 23:45 被阅读0次

    22 Generation

    outline.png

    1.Generation

    可以用一个RNN产生a character / word

    在英文中a-z是character

    image.png

    generate pixal生成图片

    用一个三维的方向map去生成每个位置

    image.png

    想要构建右下角的几个关系,用一个3d-lstm,

    image.png

    RNN生成其他任务

    image.png

    Conditional Generation

    让机器看一些东西,根据我们提供的东东去生成;而不是随机产生

    image.png

    把image通过一个训练好的CNN得到一个向量,扔给RNN,如果担心RNN忘记之前的image,就把image反复喂给RNN

    image.png

    之前可以用RNN去生成

    Machine Translation

    把“机器学习”四个character扔给一个训练好的RNN,得到最后的一个向量。

    encoder和decoder的rnn的参数可以一样,可以不一样。

    这就是seq2seq learning

    image.png

    再拿一个encoder记住之前的,把前面的说过的都当做一个condition

    image.png

    RNN不需要看完整句机器翻译得到machine,可能看过机器就能得到很好结果

    image.png

    Attention

    image.png image.png image.png

    计算c1

    image.png image.png image.png

    效果:

    image.png

    00:47:00 讲述 memory network

    最早做在阅读理解上

    image.png

    更复杂的部分:

    这件事情叫作hopping,联合训练得到a和h向量

    image.png image.png

    neural Turing Machine

    image.png

    turing machine的实现方案:

    e1:把原来的memory清空

    a1:把计算处理的东东写到memory中

    image.png image.png image.png

    根据视频去生成

    image.png

    TIps for Generation

    Attention


    image.png image.png

    Exposure bias解释:

    image.png

    解决办法就是Scheduled Sampling

    image.png

    第二种方案是 beam search 柱搜索

    当每个结点的分支太多,就不好搜索,可以用greddy search

    image.png

    左边是sample出来的,而右边图直接把前一个rnn计算出来的扔到后面一个,这种做法好微分,好求梯度。

    image.png

    老师说这个R(y,y_hat)不可以微分,然后用Reinforcement learning做

    image.png

    把genration当做reinforcement learning来做

    image.png

    当这个sentence被generate出来后,然后再计算R

    相关文章

      网友评论

          本文标题:【lhy人类自然语言处理】 22 Generation

          本文链接:https://www.haomeiwen.com/subject/pghwmltx.html