美文网首页
BERT面试8问8答

BERT面试8问8答

作者: chenny88 | 来源:发表于2020-05-27 16:03 被阅读0次

    近期对BERT系列综述了一番,但记得以前刚接触BERT的时候有很多疑问,之后通过看博客、论文陆续弄明白了。这次就以QA的形式将关于BERT的疑问及其相应解答分享给大家,不足之处,望请指出。关注【NLP有品】后期会不定期分享各个版本bert的详细解读以及实战代码,敬请期待。

(1)BERT 的MASK方式的优缺点?

    答:BERT的mask方式:在选择mask的15%的词当中,80%情况下使用mask掉这个词,10%情况下采用一个任意词替换,剩余10%情况下保持原词汇不变。

    优点:1)被随机选择15%的词当中以10%的概率用任意词替换去预测正确的词,相当于文本纠错任务,为BERT模型赋予了一定的文本纠错能力;2)被随机选择15%的词当中以10%的概率保持不变,缓解了finetune时候与预训练时候输入不匹配的问题(预训练时候输入句子当中有mask,而finetune时候输入是完整无缺的句子,即为输入不匹配问题)。

    缺点:针对有两个及两个以上连续字组成的词,随机mask字割裂了连续字之间的相关性,使模型不太容易学习到词的语义信息。主要针对这一短板,因此google此后发表了BERT-WWM,国内的哈工大联合讯飞发表了中文版的BERT-WWM。

(2)BERT中的NSP任务是否有必要?

    答:在此后的研究(论文《Crosslingual language model pretraining》等)中发现,NSP任务可能并不是必要的,消除NSP损失在下游任务的性能上能够与原始BERT持平或略有提高。这可能是由于Bert以单句子为单位输入,模型无法学习到词之间的远程依赖关系。针对这一点,后续的RoBERTa、ALBERT、spanBERT都移去了NSP任务。

(3)BERT深度双向的特点,双向体现在哪儿?

    答:BERT使用Transformer-encoder来编码输入,encoder中的Self-attention机制在编码一个token的时候同时利用了其上下文的token,其中‘同时利用上下文’即为双向的体现,而并非想Bi-LSTM那样把句子倒序输入一遍。

(4)BERT深度双向的特点,深度体现在哪儿?

    答:针对特征提取器,Transformer只用了self-attention,没有使用RNN、CNN,并且使用了残差连接有效防止了梯度消失的问题,使之可以构建更深层的网络,所以BERT构建了多层深度Transformer来提高模型性能。

(5)BERT中并行计算体现在哪儿?

    答:不同于RNN计算当前词的特征要依赖于前文计算,有时序这个概念,是按照时序计算的,而BERT的Transformer-encoder中的self-attention计算当前词的特征时候,没有时序这个概念,是同时利用上下文信息来计算的,一句话的token特征是通过矩阵并行‘瞬间’完成运算的,故,并行就体现在self-attention。

(6)BERT中Transformer中的Q、K、V存在的意义?

    答:在使用self-attention通过上下文词语计算当前词特征的时候,X先通过WQ、WK、WV线性变换为QKV,然后如下式右边部分使用QK计算得分,最后与V计算加权和而得。 

    倘若不变换为QKV,直接使用每个token的向量表示点积计算重要性得分,那在softmax后的加权平均中,该词本身所占的比重将会是最大的,使得其他词的比重很少,无法有效利用上下文信息来增强当前词的语义表示。而变换为QKV再进行计算,能有效利用上下文信息,很大程度上减轻上述的影响。

(7)BERT中Transformer中Self-attention后为什么要加前馈网络?

    答:由于self-attention中的计算都是线性了,为了提高模型的非线性拟合能力,需要在其后接上前馈网络。

(8)BERT中Transformer中的Self-attention多个头的作用?

    答:类似于cnn中多个卷积核的作用,使用多头注意力,能够从不同角度提取信息,提高信息提取的全面性。

    更多NLP相关技术干货,请关注我的微信公众号【NLP有品

相关文章

  • BERT面试8问8答

    近期对BERT系列综述了一番,但记得以前刚接触BERT的时候有很多疑问,之后通过看博客、论文陆续弄明白了。这次就以...

  • PlusToken国际理财钱包8⃣️问8⃣️答

    第一问 PIusToKen国际理财钱包是哪个公司研发的? 答:PIusToKen国际钱包是有三星团队和谷歌团队共同...

  • 8问8答+RIA+思维导图

    首先:4问4答 From《如何阅读一本书》 一:自我提问 1.整体来说,这本书说了什么? 2.作者他细说了什么,怎...

  • Redis高频面试8问

    redis是一个数据库,不过与传统数据库不同的是redis的数据是存在内存中的,所以读写速度非常快,因此redis...

  • 阳明心学305—知与行的思考

    阳明心学305—知与行的思考 (2021年8月11日星期三8:50) 学习阳明先生《答友人问》一...

  • 12.31写给女儿|458|复盘你的2022

    我问,你答。 8件小事,复盘你的2022年: 1.最有成就感的事:毕业就能上岸,笔试面试都顺利通过,本科成考也顺利...

  • 鉴峰丨何为进取

    [连续签到第1308天] 2021-8-8 周日快乐 问:"何为进取? 答:"生活, 并不需要随时冲锋陷阵, 更不...

  • 《读经教育百问千答》8

    8、 您个人的教育理想是什么? 那是非常简单的,几乎人人都应该这样想,也是人人都想得到的,就是该怎么教就教,该教什...

  • 这8种面试者会失业,你上榜了吗?

    这8种面试者会失业,你上榜了吗? 想要面试成功,光是练习一堆仪表着装、行为礼仪、你问我答的套路,然后面试过程中自信...

  • [255]The Gaussian (practice) 8

    8 個問題 答題正確率:2/8

网友评论

      本文标题:BERT面试8问8答

      本文链接:https://www.haomeiwen.com/subject/hjnwahtx.html