众所周知的一点是,人工智能今天的发展得益于半导体器件的算力的提高。但是,进入后摩尔时期了,半导体遭遇发展瓶颈了,半导体的算力不会提高很大了,那么人工智能的发展也会停滞下来吗?
所谓计算力,就是一段程序执行速度的快慢,算力的考虑除了需要考虑半导体处理信息的速度之外,还必须考虑计算基础设施是否先进和完备,这个基础设施指的就是计算系统和构架(比如分布式系统等)。
机器学习的算法是一个经过大量繁复训练后去“推断”出各种结论的方法。没有强大计算力和出色的计算基础设施,这种机器学习的算法根本不可能发挥作用。而决定计算力最根本的因素就是半导体本身的性能。比如,从材料角度,既然人工智能的目的是创造硅基智能生命,那么这个生命的智能程度很大程度上取决于硅本身的特性。
事实上,高登摩尔提出摩尔定律的本意是说计算力会随着半导体密度增加而增长。然而,单单依赖半导体密度提高计算力的摩尔时代早已经成为历史。当今,进入到所谓的后摩尔时代,半导体的计算力更多是通过更高频的时钟,更多的核数,更大的高速缓存,更优秀的规划算法来提高的。因为半导体原理靠的是原子间电子的移动,因此半导体工艺的精度一定会被原子直径所限制,大量电子移动所产生的巨大功耗也终将成为压垮整个芯片的最后一根稻草。
实际上,半导体成就了今天的硅器时代,让人们对硅基生命报有无限幻想。但是,半导体天生的缺陷一直存在,这些缺陷注定了人工智能发展先决条件不足的宿命。
比如,人类大脑最重要的功能是记忆和思维,对应于计算机的最重要部分:数据存储和逻辑运算。但人脑结构和计算机结构有明显的不同。人脑结构中,逻辑运算和存储器在同一芯片,而计算机则不然,不管是哈佛结构(Harvard architecture)还是冯•诺伊曼结构(von Neumann architecture,也称普林斯顿结构Princeton architecture),其数据存储和逻辑运算都是分开的。其中哈佛结构中数据存储和指令存储是分开的,而冯•诺伊曼结构中数据存储和指令存储不分开。
人脑结构中,逻辑运算和存储器芯片合二而一具有无与伦比的优点。首先,速度:从内存取数据是一件耗时的事情,再者就是功耗,电子在逻辑单元和存储之间的往复运动都需要做功、发热。
但是,现代计算机走的却是逻辑运算和存储各自分开的道路。就是说,制造计算机的逻辑运算部分(CPU)和记忆部分(硬盘)的材料是截然不同的两类,前者是半导体材料,而后者是磁性材料。即使到了闪存时期,逻辑运算和存储都用上了半导体材料,逻辑运算器件和存储器也依旧是分离的,即分别制造而成。虽然目前科学家正在尝试解决这个问题,但之前的这些年我们一直各走各的阳关道。现代计算机都是建立在冯诺依曼“程序存储”的思想之上的。计算机要做什么,是事先写在程序里的。而程序或者指令需要到内存中去取。这个过程造成了所谓的“冯诺依曼瓶颈”或者“内存墙”问题。因为这样的话,计算机的速度不仅取决于CPU,还决定于内存。从计算机诞生起,人们就不断要求它的计算能力提升,随着芯片集成性越来越高,CPU与内存之间的性能差距越来越大。基于冯诺依曼结构的计算机结构呈现的缺点也愈加明显,这就是“内存墙”,意思是说CPU必须反复与内存交换信息,既浪费能量又影响速度,因为内存是需要反应时间的,CPU再快,也要等内存。相比之下,人脑却没有此类问题出现,据研究表明,人类大脑平均每秒可执行 1 亿亿次操作,更加独立和高效。
长期以来,人类一直致力于仿人脑运作的记忆单元、芯片。但是,半导体材料无法满足人们的愿望。因为利用半导体材料无法制作同时能够逻辑运算又有记忆功能的器件。一个适合做逻辑器件的材料不能同时又是记忆材料。想一想当年的计算机,为什么总是单独做一个磁性材料的硬盘就可以理解这一点了。2013年前后,一个叫做忆阻器的概念风靡全国。那么忆阻器是否可以成为这样仿人脑运作的器件?答案尚不清晰。
网友评论