美文网首页
BERT介绍及发展过程

BERT介绍及发展过程

作者: Lucien_Liu | 来源:发表于2019-04-03 22:37 被阅读0次

Shallow Model 不能考虑上下文
Deep Model:
LSTM —— ELMO 对LSTM进行叠加使用
Transformer 来代替 LSTM 解决其缺点,产出 OpenAI GPT 再产出 BERT

Language Model: measures how likely a valid sentence.

  1. NNLM Bengio 2003 : Neural Architecture of Language Model
    缺点:每次只能考虑过去的n个单词

  2. CBOW and SkipGram 不基于语言模型

NNLM 和 CBOW, Skip-Ngram 的缺点:

  1. Could not distinguish context. i.e. Yesterday, when he backed the car, he hurt his back. (不能考虑上下文,两个back不同)
  2. Does not capture long-term dependency(需要使用时序模型)
  3. Shallow model, could not learn hierarchical representation(只有 Deep Model 才能学到层次结构的特征)

What is hierarchical Representation
Deep Learning = Learning Hierarchical Representations -- Y LeCun.

ELMO, BERT 都可以学到层次结构的特征,可以假设为:
Word features —— Syntactic features —— Semantic features

捕获时序关系模型: HMM , CRF, RNN, LSTM(解决RNN梯度问题,在RNN基础上增加了3个Gate,没百分百解决梯度问题)

BLMO
问题:

  1. 无法并行:时序模型不能并行
  2. 梯度:随着文本的增长,梯度下降,很难捕获long-term dependency.
  3. 前向/后向单独处理,伪双向

Transformer:
目标:设计一个非时序模型,但是希望模拟时序模型具备的特点。

问题:

  1. How does Transformer implement long-term dependency? (Self-attention 解决这个问题)
  2. How does self-attention, encoder-decoder attention, decoder attention differs?
  3. How does Transformer encodes different ordering of words (Positional Encoding)

1.1 对于叠加的多个 Encoder 可以定义多组 Q、K、V 矩阵, 称为 Multi-head Attention:Capture Relation from Different Perspective.

2.1
Encoder Bi-Directional 双向
Self-Attention: attention meet is
Feed Forward: 做非线性变换

Decoder: Uni-Directional 单项
Decoder Attention 最大区别就是只需要考虑单向的,而 Encoder Attention是双向的

OpenAI 是 Transformer Decoder 训练出来的
BERT 是 Transformer Encoder 训练出来的。 因此BERT是双向的。

BERT:
BERT = Stacks of Transformer Encoder (将多个 Transformer Encoder 叠加到一起)
BERT BASE 12个 Transformer Encoder
BERT LARGE 24个 Transformer Encoder

Want to train language Model, but with only predicting next words, we could consider both sides of words. How to do?
Masked LM,例如将文章中15%的词通过 MASK 符合替代,通过 BERT 预测 所有被屏蔽的 MASK. 这是BERT的训练过程。

参考文献:
The Illustrated Transformer
https://jalammar.github.io/illustrated-transformer/

相关文章

  • BERT介绍及发展过程

    Shallow Model 不能考虑上下文Deep Model:LSTM —— ELMO 对LSTM进行叠加使用T...

  • BERT

    1.BERT介绍 2.基于Bert的多标签文本分类 3.基于Bert的命名实体识别

  • Bert PyTorch 实现

    本文主要介绍如何使用PyTroch复现BERT。在此之前可以先阅读文章BERT详解(附带ELMo、GPT 介绍[h...

  • Bert基础介绍

    BERT理解 1、预训练模型 BERT是一个预训练的模型,那么什么是预训练呢? 假设已有A训练集,先用A对网络进行...

  • Bert笔记

    本文会尽可能详细的介绍BERT的结构,预训练方法细节 一 BERT的结构 BERT的具体结构如下图所示,其只用到了...

  • Bert预训练模型

    NLP预训练模型简介 旺达 一、BERT简单文本分类实例 1、bert详细运行介绍--tensorflow htt...

  • XLNet: Generalized Autoregressiv

    1. 创新点 XLNet主要解决了Bert存在的一些问题,所以在介绍XLNet前,先简单介绍一下Bert,及其问题...

  • BERT(二) BERT解读及应用

    前面已经说了transformer(BERT(一) Transformer原理理解[https://www.jia...

  • 关于最近的NLP模型Bert、Elmo、GPT(下--1)

    这篇文章介绍Bert,但是暂时还没研究完,所以只能分两部分写。这篇文章主要介绍bert的思想和创新点,下一篇文章主...

  • 2021AAAI论文:Non-invasive Self-att

    作者及单位 本文动机 近年来,BERT框架被用于处理顺序数据,其核心是它的attention机制。但原始BERT框...

网友评论

      本文标题:BERT介绍及发展过程

      本文链接:https://www.haomeiwen.com/subject/gnotiqtx.html