强烈推荐CoLab

作者: 我的昵称违规了 | 来源:发表于2019-04-25 19:42 被阅读10次
    image.png

    现在使用的笔记本独立显卡940MX,比i7CPU快了大概5倍左右,但是在深度学习中依旧提升不明显。

    最近跑的这几个NLP模型(从LSTM Seq2Seq到GRU到Attention),随着模型的复杂以及数据量的问题,大概测了时间。

    • LSTM模型:CPU(30分钟),940mx(5分钟)
    • GRU模型:同上
    • Attention模型:CPU(没测),940mx(20分钟)

    有时候我一觉醒来还在处理,慢得一批……

    CoLab之前也有学习,但是总感觉比较繁琐,今天看了一篇博文 Colab 免费提供 Tesla T4 GPU,是时候薅羊毛了 ,竟然换成T4 GPU,果断试一下,将同样的Attention模型代码导入测试,1个迭代降到48秒……OK,我决定投靠CoLab……

    目前还在学习中,因为使用的预训练模型比较小,CoLab下载速度也很快(包括Spacy的de和en语料,不知道墙了多少好东西啊……),之后要解决的是训练好的模型下载重载问题。今天试了模型重载,tensor数据有一点问题,可能是本地的语料库数据版本问题。

    相关文章

      网友评论

        本文标题:强烈推荐CoLab

        本文链接:https://www.haomeiwen.com/subject/icltnqtx.html