BERT 详解(四)

作者: 6c643a7fc0e6 | 来源:发表于2019-12-29 21:07 被阅读0次

BERT 有两个自然语言处理任务的预训练:

  • Masked Language Modeling
  • Next Sentence Prediction

1. Next Sentence Prediction

Masked Language Model 是为了理解词之间的关系,Next Sentence Prediction 是用来理解句子之间的关系。

给定两个句子,句 A 和 B,B 是 A 的下一个句子,还是随机的句子?例如:假设有一个包含 10 万个句子的文本数据集,即 5 万个句子对作为训练数据。

  • 其中 50% 的句子对的第二句是第一句的下一句。

  • 剩余50%的句子对的第二句是从语料库中随机抽取。

第一种情况的标签为:IsNext ;第二种情况的标签为:NotNext。比如:

Input = [CLS] the man went to [MASK] store [SEP] he bought a gallon [MASK] milk [SEP] 

Lable = IsNext

Input = [CLS] the man went to [MASK] store [SEP] penguin [MASK] are flight ##less birds [SEP]

Lable = NotNext

我们对于 NotNext 的句子的选择时完全随机的,并且最终预训练模型在这个任务中会达到 97%-98% 的准确率。

相关文章

  • BERT 详解(四)

    BERT 有两个自然语言处理任务的预训练: Masked Language Modeling Next Sente...

  • Bert PyTorch 实现

    本文主要介绍如何使用PyTroch复现BERT。在此之前可以先阅读文章BERT详解(附带ELMo、GPT 介绍[h...

  • BERT详解(附带ELMo、GPT 介绍)

    本文为转载,原文链接BERT 详解(附带 ELMo、GPT 介绍)[https://wmathor.com/ind...

  • BERT 详解(五)

    Fine-tuning 微调 微调阶段根据不同任务使用不同网络模型。在微调阶段,大部分模型的超参数跟预训练时差不多...

  • BERT 详解(一)

    今天来聊聊谷歌的自然语言处理框架 BERT,BERT 已经对自然语言处理有着显著的变革,那么 BERT 到底是什么...

  • BERT 详解(三)

    BERT 有两个自然语言处理任务的预训练: Masked Language Modeling Next Sente...

  • BERT 详解(二)

    1. BERT 结构 BERT是以 Transformer 为基础的,目前有两种变体: BERT Base:12层...

  • BERT使用详解(实战)

    BERT模型,本质可以把其看做是新的word2Vec。对于现有的任务,只需把BERT的输出看做是word2vec,...

  • Sentence-BERT 详解

    本文为转载,原文链接:https://wmathor.com/index.php/archives/1496/[h...

  • BERT模型详解与实战

    BERT的全称是Bidirectional Encoder Representation from Transfo...

网友评论

    本文标题:BERT 详解(四)

    本文链接:https://www.haomeiwen.com/subject/qemjoctx.html