美文网首页
论文阅读_Chinchilla

论文阅读_Chinchilla

作者: xieyan0811 | 来源:发表于2023-04-11 18:44 被阅读0次

论文信息

name_en: Training Compute-Optimal Large Language Models
name_ch: 训练计算优化的大型语言模型
paper_addr: http://arxiv.org/abs/2203.15556
date_read: 2023-03-25
date_publish: 2022-03-29
tags: ['深度学习','自然语言处理']
author: Jordan Hoffmann,DeepMind
citation: 166

读后感

针对训练数据量,模型参数量,以及数据训练量,通过实验,得出一些结论:更长的训练时间,更多token,能提升模型效果;大模型的参数量和性能之间存在幂律分布;训练时token越多,模型效果越好,作者认为模型的大小与训练token量应等比增加。
换言之:不应该太过纠结于拟合当前的知识和存储量,更重要的是扩展知识面,另外应该多“思考”。

摘要

现在大模型严重训练不足。通过大量实验发现对于模型的每加倍size 训练令牌的数量也应该加倍。Chinchilla 使用更少的计算来进行微调和推理,极大地促进了下游应用。

介绍

可以看到,相对当时其它模型,Chinchilla使用了更多的token和更少的模型参数。

文中主要讨论了,在运算量固定的情况下,如何选择参数和token量的配比,使损失函数最小

通过在 5 到 5000 亿个标记上训练 400 多个语言模型,范围从 7000 万到超过 160 亿个参数。如图-1所示:

文中介绍Chinchilla模型是对Gopher的调整,将模型大小变为其1/4,token变为其4倍,与Gopher计算量基本一致。它不仅效果更好,还减少了模型规模,使其能在更低成本的硬件上运行。

方法

从图-2中可以看到token量,参数量和运算量的相互关系:

实验尝试了使用不同大小的训练数据,不同参数量,以及把参数量和数据规模加入Loss的惩罚,经过大量实验(论文第三部分),得出以下结论:
随着计算预算的增加,模型大小和训练数据量应该以大致相等的比例增加
图-3展示了不同参数对应的估计训练数据量(后面的模型可以参考这个量):

Chinchilla模型

训练数据

模型结构

实验

实验在阅读理解,问答,常识,MMLU等多个测试集中评测,效果是Chinchilla在绝大多数情况都优于其基础模型Gopher,其中MMLU对比效果如下(其它详见正文),对于其中几个子项(高中政治,国际法,社会学,美国外交政策)评测效果高于其它所有模型:

收获

  • 延伸阅读:Scaling laws for neural language models,被本篇引用了23次。
  • FLOP是一种衡量模型计算量的指标,全称为Floating Point Operations,即浮点运算次数。在NLP中,FLOP budgets是指模型的计算量预算。

相关文章

  • chinchilla

    Hello deer customers, it's my honor to introduce chinchil...

  • 论文阅读

    2013 NIPS - More Effective Distributed ML via a Stale Syn...

  • 论文阅读

    三年的研究生生活还是没有形成一个个人的论文阅读体系。主要还是论文太多,每年的论文更新数量远远超过个人阅读能力,...

  • 论文阅读

    郑宇多任务 TKDE 2019 同一数据从不同角度挖掘有用信息,作者搭建了基于参数硬共享的双任务深度学习模型,学习...

  • 阅读论文

    Attention-Fused Deep Matching Network for NLI(Natural Lan...

  • 论文阅读

    exploration transform a stable exploring algorithm for ro...

  • 论文阅读

    近日来阅读了不少文章,也算是体会到了渐入佳境的感觉。 我个人感觉,学术可能就是80%的苦读钻研,15%的综合比较,...

  • 【语文教学】议论文阅读之如何找出议论文的论点

    议论文阅读之如何找出议论文的论点 给初中生阅读的议论文必须规范,但规范的议论文似乎又有答题的规律可循,造成阅读难度...

  • Iforest

    论文:Iforest阅读中

  • 蒋京丽 | 改进阅读理解问题设计,培养初中学生思维能力

    今日阅读论文摘抄

网友评论

      本文标题:论文阅读_Chinchilla

      本文链接:https://www.haomeiwen.com/subject/axagddtx.html