Task07

作者: 浅草微微暖_4b93 | 来源:发表于2020-02-25 20:01 被阅读0次

    一 优化算法进阶

    一个常用优化算法AdaDelta算法也针对AdaGrad算法在迭代后期可能较难找到有用解的问题做了改进

    二 word2vec

    Word2Vec 词嵌入工具的提出正是为了解决上面这个问题,它将每个词表示成一个定长的向量,并通过在语料库上的预训练使得这些向量能较好地表达不同词之间的相似和类比关系,以引入一定的语义信息。基于两种概率模型的假设,我们可以定义两种 Word2Vec 模型:

    Skip-Gram 跳字模型

    Skip-Gram 模型的实现,CBOW 实现与其类似,

    PTB 数据集:

    简单来说,Word2Vec 能从语料中学到如何将离散的词映射为连续空间中的向量,并保留其语义上的相似关系。那么为了训练 Word2Vec 模型,我们就需要一个自然语言语料库,模型将从中学习各个单词间的关系,这里我们使用经典的 PTB 语料库进行训练。

    Skip-Gram 跳字模型

    负采样近似

    训练模型

    三 词嵌入进阶

    子词嵌入(subword embedding):FastText以固定大小的 n-gram 形式将单词更细致地表示为了子词的集合,而BPE (byte pair encoding)算法则能根据语料库的统计信息,自动且动态地生成高频子词的集合;

    GloVe 全局向量的词嵌入: 通过等价转换 Word2Vec 模型的条件概率公式,我们可以得到一个全局的损失函数表达,并在此基础上进一步优化模型。

    GloVe 全局向量的词嵌入

    求近义词

    由于词向量空间中的余弦相似性可以衡量词语含义的相似性(为什么?),我们可以通过寻找空间中的 k 近邻,来查询单词的近义词。

    求类比词

    除了求近义词以外,我们还可以使用预训练词向量求词与词之间的类比关系,例如“man”之于“woman”相当于“son”之于“daughter”。

    相关文章

      网友评论

          本文标题:Task07

          本文链接:https://www.haomeiwen.com/subject/vcgfchtx.html