22 Generation
outline.png1.Generation
可以用一个RNN产生a character / word
在英文中a-z是character
image.pnggenerate pixal生成图片
用一个三维的方向map去生成每个位置
image.png想要构建右下角的几个关系,用一个3d-lstm,
image.pngRNN生成其他任务
image.pngConditional Generation
让机器看一些东西,根据我们提供的东东去生成;而不是随机产生
image.png把image通过一个训练好的CNN得到一个向量,扔给RNN,如果担心RNN忘记之前的image,就把image反复喂给RNN
image.png之前可以用RNN去生成
Machine Translation
把“机器学习”四个character扔给一个训练好的RNN,得到最后的一个向量。
encoder和decoder的rnn的参数可以一样,可以不一样。
这就是seq2seq learning
image.png再拿一个encoder记住之前的,把前面的说过的都当做一个condition
image.pngRNN不需要看完整句机器翻译得到machine,可能看过机器就能得到很好结果
image.pngAttention
image.png image.png image.png计算c1
image.png image.png image.png效果:
image.png00:47:00 讲述 memory network
最早做在阅读理解上
image.png更复杂的部分:
这件事情叫作hopping,联合训练得到a和h向量
image.png image.pngneural Turing Machine
image.pngturing machine的实现方案:
e1:把原来的memory清空
a1:把计算处理的东东写到memory中
image.png image.png image.png根据视频去生成
image.pngTIps for Generation
Attention
image.png image.png
Exposure bias解释:
image.png解决办法就是Scheduled Sampling
image.png第二种方案是 beam search 柱搜索
当每个结点的分支太多,就不好搜索,可以用greddy search
image.png左边是sample出来的,而右边图直接把前一个rnn计算出来的扔到后面一个,这种做法好微分,好求梯度。
image.png老师说这个R(y,y_hat)不可以微分,然后用Reinforcement learning做
image.png把genration当做reinforcement learning来做
image.png当这个sentence被generate出来后,然后再计算R
网友评论