美文网首页
《深度学习》(2)人工智能机器学习解决两个问题

《深度学习》(2)人工智能机器学习解决两个问题

作者: 2020MissR | 来源:发表于2021-04-23 05:26 被阅读0次

    作者:高彦杰,于子叶

    微软亚洲研究院资深AI工程师

    出版日期:2018年

    字数:15.8万

    书评:面向初学者,以实战为导向深度学习指南

    深度学习知识体系,核心概念,模型与算法,工具和库(TensorFlow)等全栈技术知识

    通过案例讲解如何应用到计算机视觉,自然语言处理,语音识别,对话机器人,人脸识别,自动驾驶

    人工智能机器学习解决两个问题

    卷积神经网络(Convolutional Neural Network, CNN)

    是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deep learning)的代表算法之一 。卷积神经网络具有表征学习(representation learning)能力,能够按其阶层结构对输入信息进行平移不变分类(shift-invariant classification),因此也被称为“平移不变人工神经网络(Shift-Invariant Artificial Neural Networks, SIANN)”

    对卷积神经网络的研究始于二十世纪80至90年代,时间延迟网络和LeNet-5是最早出现的卷积神经网络 ;在二十一世纪后,随着深度学习理论的提出和数值计算设备的改进,卷积神经网络得到了快速发展,并被应用于计算机视觉,自然语言处理等领域。

    卷积神经网络仿造生物的视知觉(visual perception)机制构建,可以进行监督学习和非监督学习,其隐含层内的卷积核参数共享和层间连接的稀疏性使得卷积神经网络能够以较小的计算量对格点化(grid-like topology)特征,例如像素和音频进行学习、有稳定的效果且对数据没有额外的特征工程(feature engineering)要求。

    循环神经网络(Recurrent Neural Network, RNN)

    是一类以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络(recursive neural network)。

    对循环神经网络的研究始于二十世纪80-90年代,并在二十一世纪初发展为深度学习(deep learning)算法之一 ,其中双向循环神经网络(Bidirectional RNN, Bi-RNN)长短期记忆网络(Long Short-Term Memory networks,LSTM)是常见的循环神经网络 。

    循环神经网络具有记忆性、参数共享并且图灵完备(Turing completeness),因此在对序列的非线性特征进行学习时具有一定优势。循环神经网络在自然语言处理(Natural Language Processing, NLP),例如语音识别、语言建模、机器翻译等领域有应用,也被用于各类时间序列预报。引入了卷积神经网络(Convolutional Neural Network,CNN)构筑的循环神经网络可以处理包含序列输入的计算机视觉问题。

    Word2Vec

    是一群用来产生词向量的相关模型。这些模型为浅而双层的神经网络,用来训练以重新建构语言学之词文本。网络以词表现,并且需猜测相邻位置的输入词,在word2vec中词袋模型假设下,词的顺序是不重要的。训练完成之后,word2vec模型可用来映射每个词到一个向量,可用来表示词对词之间的关系,该向量为神经网络之隐藏层。

    <下一篇> 《深度学习》(3)目标,现状,适用领域

    相关文章

      网友评论

          本文标题:《深度学习》(2)人工智能机器学习解决两个问题

          本文链接:https://www.haomeiwen.com/subject/khbqrltx.html