美文网首页
Transformer培训:《Transformers for

Transformer培训:《Transformers for

作者: 孙庚辛 | 来源:发表于2021-11-27 15:24 被阅读0次

    Github 代码地址:
    https://github.com/PacktPublishing/Transformers-for-Natural-Language-Processing

    《Transformers for Natural Language Processing》这本书的作者丹尼斯·罗斯曼毕业于索邦大学和巴黎狄德罗大学,设计了第一个 word2matrix 嵌入和矢量化系统。他的职业生涯始于创作第一个人工智能应用, 认知自然语言处理(NLP)聊天机器人作为 Moët et Chandon 和其他公司的自动化语言老师。他面向 IBM 和服装生产商制作了AI 资源优化器,以及高级规划和调度 (APS) 的解决方案,这一方案在全球范围内使用。

    《Transformers for Natural Language Processing》这本书包含了十几个章节,最开始是介绍 Transformer 的架构, 后面会针对较新的一些 Transformer 模型做讲解。

    《Transformers for Natural Language Processing 》在 Transformers 的上下文中详细研究了机器翻译、语音到文本、文本到语音、语言建模、问答以及更多 NLP 领域的深度学习。

    本书将带您使用 Python 进行自然语言处理,并检查由 Google、Facebook、Microsoft、OpenAI、Hugging Face 和其他贡献者等先驱创建的 Transformer 技术中的各种杰出模型和数据集。

    这本书分三个阶段训练你。第一阶段向您介绍 Transformer 架构,从最初的 Transformer 开始,然后介绍 RoBERTa、BERT 和 DistilBERT 模型。您会发现在某些情况下可以胜过 GPT-3 的小型 Transformer 的训练方法。在第二阶段,您将应用 Transformers for Natural Language Understanding (NLU) 和 Generation。最后,第三阶段将帮助您掌握高级语言理解技术,例如优化社交网络数据集和假新闻识别。

    读完这本 NLP 书籍,您将从认知科学的角度理解 Transformer,并熟练地将科技巨头预先训练的 Transformer 模型应用于各种数据集。

    你会学到的东西:
    使用最新的预训练 Transformer 模型
    掌握原始Transformer、GPT-2、BERT、T5等transformer模型的工作原理。
    使用优于经典深度学习模型的概念创建语言理解 Python 程序。
    使用多种 NLP 平台,包括 Hugging Face、Trax 和 AllenNLP。
    将 Python、TensorFlow 和 Keras 程序应用于情感分析、文本摘要、语音识别、机器翻译等。
    测量关键Transformer的生产力,以确定其生产范围、潜力和限制。

    知识星球

    “星空智能对话研学社”

    相关文章

      网友评论

          本文标题:Transformer培训:《Transformers for

          本文链接:https://www.haomeiwen.com/subject/wvtqxrtx.html