美文网首页
708.《AIGC 未来以来》 阅读摘要二——AI科普

708.《AIGC 未来以来》 阅读摘要二——AI科普

作者: 七镜 | 来源:发表于2023-06-21 10:17 被阅读0次
  1. 生成对抗网络可以帮助神经网络用更少的数据进行学习,生成更多的合成图像,之后还可以用来识别和建设更好的神经网络。

  2. 生成对抗网络是由两个神经网络来玩“猫捉老鼠”的游戏。一个是生成器,另一个是判别器:生成器用来创造出看起来像真实图像的假图像,而判别器则用来判断它们是否是真的。在相互对抗中,生成器生成的图像逐渐达到以假乱真的地步,从而让判别器难以判断真假,使得生成的数据分布更加接近真实数据分布。

  3. Transformer 基于注意力机制,不需要进行递归和卷积,因此模型在质量上更胜一筹,需要的训练时间也减少了很多。

  4. Trasformer 的 “Attention”机制:“Attention”机制模仿的是人类视觉所特有的大脑信号处理机制。具体来说,在看一幅图像或一段文字的时候,眼睛会快速扫描全局,找到需要重点关注的部门(即所谓的注意力焦点),之后再进一步对相关区域进行仔细观察。

  5. Transformer阶段:优化人脑学习过程,关注重点而非全部。

相关文章

网友评论

      本文标题:708.《AIGC 未来以来》 阅读摘要二——AI科普

      本文链接:https://www.haomeiwen.com/subject/dmjuydtx.html