这是系列第三作(一艾西莫夫、二机器人三定律),谈及的是《我,机器人》部分内容的感想,这一部是跟后四部没有剧情关联的,故事时间线在后几部之前,创作却在《钢穴》《裸阳》20多年之久之后的,由九个章节、九个独立故事组成。
心灵感应机器人
机器人厄比由于能洞察人的情绪,基于第一原则“不得使人类受伤”,所以它的行为“不能使人类伤心”(一般机器人则仅需要保护人类的身体安全即可),为了使人类“开心”,结果就是“见人说人话,见鬼说鬼话”,被定律约束而鬼话连篇,最终因漏洞百出而暴露能力,在欧文·凯利的怒气下利用机器人定律使其宕机。
这个篇章说明了,机器人的能力越强,对定律的执行边界就越大,也就可能遭遇由于机器人定律而发生矛盾的场景。一个家政机器人,不会因为不营救一个需要飞檐走壁才能拯救的人而“自责”,一个搬运机器人不会因为自身不能烹饪出美味的大餐而“自责”,那么,一个拥有指挥众多机器人的高级机器人,在极其宽广的执行边界下,究竟会采取什么行动来“使人类不受伤害呢”?
机器人理性
机器人QT-1依据“严谨”的理性思考,不相信人类是它的创造者,其推理是——“没有生灵能创造优于自身的生命”,机器人的运算能力,物理机能都在人类之上,所以机器人并非低于自身的人类所创造,而是高于自身的“主宰”所创造的,人类是这个“主宰”的使者(或者代理人,或者奴仆)而已。所以机器人无须听命于人类,而应思考和服从“主宰”的旨意……即使人类当着它面利用零件组建一台机器人,也不能改变它的想法。
这个故事引出三点思考:
一、严谨的理性推导,必然得出“主宰”/“上帝”是存在的结论吗?
二、人类有能力创造出智能高于自身的AI,所以“造物主”若存在,其实并非一定是更加“高级”的存在?(想到大刘的《赡养上帝》)
三、拥有智能的机器人一旦出现了违背人类制造初衷的思想倾向,人类是否具备论理上(而非物理上)纠正的能力?
我认为,“没有生灵能创造优于自身的生命”的说法是不准确的,这个观点的前提是被创造物没有“自我优化”的能力,而人类是一例外——具备理性,人工智能也是一例外——通过大量获取数据促进自身进化。
觉得人工智能不会危害人类的人会觉得,AI只是复杂代码的运算而已,一切都是那么精确,根本没有“失误”的可能。要知道,基因的自我复制本也是精确的自我复制,但只要重复的次数达到一个庞大的数字的时候,失误就一定会发生(墨菲定律),人类和其他生物的环境适应性就是在基因自我复制的误差中实现的。人工智能的发展也是如此,无数遍的指令运作下总会发生偏差,而且在其高于其他生物反应的数万倍的运算速度下,其偏离“原则”的倾向会以指数速度扩大……阻止只能在发生极小偏差的开始阶段,否则以人类的能力终将难免被机器人支配的命运。
新的国家形态
系列中地球已经没有“国家”了,由于人口的减少和太空族的存在,大陆整合成数个“界域”——
不得不说,这个划分槽点满满……要结合着成书背景在1982年来理解,这个“界域”划分体现了阿西莫夫对他所在时代的国家政治的认识,阿西莫夫生于1920年,正值一战结束后、政治风云涌动的苏联(严格意义上一年多后才称“苏联”)的莫斯科的一个村庄,1923年举家移民美国(倒视镜的角度看,这个决定无比正确),一生的创作都在美国完成,20世纪的80年代,属于冷战的后期,这时候苏联在戈尔巴乔夫的领导下,经历着艰难的改革,苏联对美国的强势不再。
有几个有意思的地方:
1.东方界域的首都是上海而不是北京,这是在上世纪50年代,上海才是在外国人看来最具代表性的城市吧。
2.欧罗巴界域居然不包含英国,莫非阿西莫夫预料到日后英国会“脱欧”?……欧陆被认为是“历史悠长却多无贡献”,真是太俏皮了。
3.北方界域让英、加和苏联结合在一起,无论放在那个年代还是现在都是颇不可思议的,有点牵强。毛子似乎跟哪个板块、集团结合都会让人觉得不可思议吧……
4.地球界域,以美国为中心,作者是在半个世纪中体验了美国的强大的美国人,不难理解。
国家“集团化”究竟是不是未来的可能形态呢?个人认为,这近乎是不可能的,除非未来人口坍缩到一个极小的规模(比如20亿),在人口规模萎缩下通过聚集而提高效率,又或者出现了急须联合所有人类资金和科技才能抵御的危难(外星侵略?),但这种情况是不稳定也不理想的。未来真的出现唯一政权“地球联邦”的话,似乎不是坏事呢。
网友评论