美文网首页
【lhy人类自然语言处理笔记】25 Muliti-lingual

【lhy人类自然语言处理笔记】25 Muliti-lingual

作者: pub_bug | 来源:发表于2021-07-23 10:44 被阅读0次

    25 Muliti-lingual BERT

    image.png image.png image.png

    Multi-BERT最神奇的是训练一种模型上,用另一种语料去测试效果还可以


    image.png image.png

    Google设计的一个benchmark设计模型跨语言的能力

    image.png

    为什么cross-lingual可以work?

    mbert may be能够学习到语义方面的东西

    BERT +大量的语料可以做好不同语言的align

    image.png

    第一种方式是code switching,就是中英文混交着,比如看过DNA的构造很想螺旋体,mbert可能就会任务DNA与螺旋体是等同的

    image.png

    这里只用两种语言

    image.png

    <u>mbert显然知道语言的资讯</u> ,mbert训练的目标就是:吃的是en那个output的也是en

    image.png

    发觉一下mbert语言资讯原理

    image.png

    里面有个想法是求得平均的差值向量

    image.png

    这种就有点想GAN的训练方式

    image.png

    mbert确实存在语义部分

    image.png image.png

    加上蓝色的向量(MDS)得到的效果就好些。

    相关文章

      网友评论

          本文标题:【lhy人类自然语言处理笔记】25 Muliti-lingual

          本文链接:https://www.haomeiwen.com/subject/nmbumltx.html