美文网首页
人工智能的进化:从模拟人脑神经元到深度学习

人工智能的进化:从模拟人脑神经元到深度学习

作者: 吴言不语零一二三 | 来源:发表于2023-10-10 13:00 被阅读0次

    今天我们基于聊聊人工智能的最早模拟人脑神经元的模型,以及后面发展起来的深度学习。关于人工智能,其实早在1956年就首次提出,并几经起伏发展。我们知道,人工智能就是想方设法模拟人脑的运作机制,从而开发出智能系统。人脑的神经元一共由四个部分组成:细胞体、树突、轴突和轴突末梢,见下图:


    单个神经细胞只有两种状态:兴奋和抑制。每个神经元大概会存在1000-10000个突触连接,人类大脑(除去小脑)有160亿神经元,大猩猩有80亿个,狗有4.3亿个,猫有2.5亿个。


    神经元通过接收外界信号,达到一定阈值,触发动作电位,通过突触释放神经递质,可以是兴奋或抑制,影响突触后神经元。通过此实现大脑的计算、记忆、逻辑处理等,进而做出一系列行为等。同时不断地在不同神经元之间构建新的突触连接和对现有突触进行改造,来进行调整。

    而针对生物神经元的模拟,最早提出来的是:M-P模型,M,P其实就是两位作者的名字:McCulloch and Pitts,他们在1943年就提出来了,在后面得到了应用和发展。

    书中指出:
    M-P模型将神经元中的树突、细胞体等接收到的信号都看作输入值,轴突末梢发出的信号视作输出值。
    但这种模型还缺乏神经网络的概念,也无法完成语义理解和数据训练,同时由于计算机算力受限,人工智能的发展并未得到改善。随着算法、算力、数据,人工智能发展的三大基石都逐步发展起来。最近一次引起公众注意,我们都知道是在2016年AlphaGo战胜了世界围棋冠军李世石。而这得益于十年前的2006年,首次提出的深度学习概念,在《生成式人工智能》一书中提到:
    2006年,(Geoffrey Hinton)首次提出了“深度信念网络”。与传统的训练方式不同,深度信念网络有一个“预训练”(pre-training)的过程,可以方便地让神经网络中的权值找到一个接近最优解的值,之后再使用“微调”(fine-tuning)来对整个网络进行优化训练。这种分阶段的训练方法大幅度减少了训练深度学习模型的时间。
    也可以看我之前培训课件的这张图:


    现在主流的人工智能领域都是基于深度学习的,包括我们熟知的GPT、Diffusion等生成式AI模型都属于深度学习模型。那么何为“深度”呢?就像把大象放进冰箱一共分为三步:打开冰箱门,放进大象,再关上冰箱门一样。人类对知识的处理也分为三步,输入信息,处理信息,输出信息。这里面,最复杂的就是如何“放进大象”,如何处理信息,我们要做的就是把这一步继续一步步拆解,用行话来说就是一层层拆解,这个层越多,就越深。人们也尝试模拟人脑结构,中间加入更多的层隐藏层,和人脑一样,输入到输出中间要经历很多层的突触才会产生最终的输出。加入更多层的网络可以实现更加复杂的运算和逻辑处理,效果也会更好。处理层也就是隐藏层,输入层和输出层之间加更多的"Hidden Layer"隐藏层,加的越多越"深"。


    深度学习就是用人类的数学知识与计算机算法构建起整体架构,再结合尽可能多的训练数据以及计算机的大规模运算能力去调节内部参数,尽可能逼近问题目标的半理论、半经验的建模方式。
    好了,关于更多的相关知识,我们下篇继续唠唠,想看文中ppt,可以咨询我。

    相关文章

      网友评论

          本文标题:人工智能的进化:从模拟人脑神经元到深度学习

          本文链接:https://www.haomeiwen.com/subject/snbwbdtx.html