美文网首页
[NLP] Sentence-BERT模型

[NLP] Sentence-BERT模型

作者: nlpming | 来源:发表于2022-01-06 00:43 被阅读0次

1. 简介

  • 对于句对的分类或回归任务,BERT模型需要将两个句子作为输入,从而预测一个目标值拟合真实值。但是这种方式非常的耗时,比如在10000个句子中找最相似的句对需要花费很差的时间大约65小时。通过BERT得到句子向量,最常用的两种方式就是:token级别的平均,或者[CLS]的输出向量。 bert-as-service 工具已经实现了上述功能。对于语义相似句子搜索,或者句子聚类任务BERT模型不太适合。为了解决BERT模型在语义相似句子搜索计算量大的问题,本文提出了Sentence-BERT模型。Sentence-BERT使用孪生网络(siamese network)或者triplet network结构生成句子向量,使得可以通过cosine相似度衡量句子相似性。

2. Sentence-BERT模型

  • 本文创新之处:提出了一种Sentence-BERT模型可以获取到句子向量,并且可以通过句子向量cosine相似度衡量文本相似度。方便后续进行句子语义相似度搜索、或者聚类任务。 在句对分类、回归任务效果上,相比BERT并没有提升,只是提出了一种方便获取句子向量的方法。
目标函数.png

2.1 目标函数

  • 针对不同的任务,论文中设计了三种目标函数;
  • 分类任务,目标函数如下:
    o = softmax(W_t (u, v, |u - v|))
  • 回归任务目标函数,比较简单直接计算cosine相似度然后使用MSE损失函数;
  • Triplet目标函数如下:
    max(||s_a - s_p|| - ||s_a - s_n|| + \epsilon, 0)

2.2 实验结果

  • 论文使用SNLI和Multi-NLI自然语言推理数据集,对BERT模型进行微调;最终通过cosine计算句子相似度,与数据集STS中的label计算spearman相关系数结果如下。感觉这个地方有点耍赖皮,使用了另外的自然语言推理数据集对BERT进行微调,然后再计算句子cosine相似度比较
SBERT句子向量效果.png
  • 在STS数据集上的表现如下,尝试了两种方案。从效果上来看,在STS数据集上的结果并没有超过BERT,只是通过SBERT能够得到句子向量。
    (1)直接使用STS数据集对SBERT模型进行微调;
    (2)先使用NLI数据集对SBERT进行微调,然后使用STS数据集对SBERT进行微调。
STS数据集实验结果.png

参考论文

参考资料

相关文章

  • [NLP] Sentence-BERT模型

    1. 简介 对于句对的分类或回归任务,BERT模型需要将两个句子作为输入,从而预测一个目标值拟合真实值。但是这种方...

  • 使用Torch实现CoSENT实验

    这周五最后的时间看完了苏神刚更新的CoSENT,主要是为了解决目前Sentence-BERT等模型训练和预测目标不...

  • 116. 【论文理解】SBERT

    Sentence-BERT: Sentence Embeddings using Siamese BERT-Net...

  • NLP模型

    2020-01-11 word2vec 词袋 每个词有一个对应的onehot编码可以得到文本的向量化结果,向量长度...

  • 彻底理解 Google BERT 模型

    BERT 模型是 Google 在 2018 年提出的一种 NLP 模型,成为最近几年 NLP 领域最具有突破性的...

  • 极简父母

    九型分三类 性格决定命运 性格里包含 情感模型~NLP 思维模型 行为模型

  • 分类学习器的构建

    目录 变量选择 变量筛选 模型选择 变量预处理 模型设计和训练 模型优化 模型检验 1、特征选择 在NLP模型、机...

  • NLP入门(一)词袋模型及句子相似度

      本文作为笔者NLP入门系列文章第一篇,以后我们就要步入NLP时代。  本文将会介绍NLP中常见的词袋模型(Ba...

  • 兼容并“包”NLP评价指标:Robustness Gym框架

    ©NLP论文解读原创•作者 | 吴雪梦Shinemon 研究方向 | 计算机视觉 导读说明 在NLP模型被建立后,...

  • NLP - Transformer模型

    简介 Transformer模型由Google提出,发表在NIPS 2017会议上。是一种完全基于注意力机制的模型...

网友评论

      本文标题:[NLP] Sentence-BERT模型

      本文链接:https://www.haomeiwen.com/subject/qallcrtx.html