美文网首页
BERT使用心得经验分享

BERT使用心得经验分享

作者: 胡文祥lyy | 来源:发表于2019-06-04 21:06 被阅读0次

使用Bert有一段时间了,在项目中确实也能带来提升,这里总结下bert的使用心得。

1,资源的使用

Bert在训练的过程确实很消耗资源。


Bert资源图

上面是Bert模型在12G显存的显卡上,每轮的样本数和句子长度。
开始还担心Bert模型部署在客户的机器上能否正常运行。后面测试发现,如果没有太高的并发,其实在预测阶段对显存的消耗并不高,大概1-2G显存即可。

2,模型速度

使用Bert模型一定要跑在GPU上,不论是训练还是预测阶段。我测试的跑在GPU上的速度是CPU的60多倍。

3,学习速率

目前使用Bert做过分类,seq2seq,序列标注,发现很多任务上,Bert的学习速率不宜调的过高,否则训练的效果很差。而且在官方代码中学习速率是5e-5。而且这里的训练方式建议使用官方提供的优化器,官方提供的优化器学习速率是动态调整的。详细代码可见GIT里面的demo3

4,Bert模型不参与训练

在使用Bert的时候,建议Bert先参与训练,然后固定住Bert的参数,在训练N轮。在我的项目中,这样的操作最后的效果比较好。
Bert不参与训练需要调整两个地方,一个是在创建模型的时候is_train=False,还有一个是Bert的参数不参与反向传播。
详细代码可见GIT里面的demo3

相关文章

  • BERT使用心得经验分享

    使用Bert有一段时间了,在项目中确实也能带来提升,这里总结下bert的使用心得。 1,资源的使用 Bert在训练...

  • Bert使用随笔

    Bert使用 使用Bert模型 其中bert_config是BertConfig类,bert内部是从json配置文...

  • tensorflow.python.framework.erro

    使用Bert生成句向量,使用github上的bert-utils项目使用方式为 报以下信息错误: 看到github...

  • 你也能飞上枝头变凤凰

    今天是暑假教师培训心得分享及中招阅卷经验分享会,非常充实的一天,也是收获满满的一天!会上进行心得和经验分享的老...

  • BERT微调模型

    使用BERT和Pytorch构建BERT微调模型,当然这里使用Pytorch的原因是用来比赛是比较方便的。 部分代...

  • 11.23日课程总结

    提高职场能见度,积累自己的经验,并把经验和心得分享出去。

  • 干货 | 深度学习的实践应用之路

    导语:在本文中,我分享了三个有关深度学习的实践应用的经验和心得,希望我的这些心得对那些计划在生意场上使用深度学习的...

  • 基于 RocketMQ 的同城双活架构在美菜网的挑战与实践

    本文整理自李样兵在北京站 RocketMQ meetup分享美菜网使用 RocketMQ 过程中的一些心得和经验,...

  • 使用BERT进行fine-tuning

    Github上BERT的README里面已经给出了相当详细的使用说明,GOOGLE BERT地址。Fine-tun...

  • transformers中的bert用法

    1. Bert模型下载 这里直接使用huggingface提供的pre-trained的bert模型,直接去官网即...

网友评论

      本文标题:BERT使用心得经验分享

      本文链接:https://www.haomeiwen.com/subject/cogrxctx.html