80年前,阿西莫夫在科幻小说中提出机器人三大定律,广为知悉,有兴趣的可以看看他的短篇小说集《我,机器人》,或者改编后的影视作品《机械公敌》,不过改编有点大,这是比较早的试图讨论机器与人如何相处的问题,也涉及到了机器伦理。
机器人三大定律机器人三大定律:
1-机器人不能伤害人类,也不能见到人类受到伤害而袖手旁观;
2-机器人必须服从人类命令,除非违反第一定律;
3-机器人必须保护自己,除非违反第一或第二定律。
当然,后来阿西莫夫又打了补丁,补充了第零定律,把第一定律扩展到了全体人类。
80年前,甚至还没有计算机的出现,就意识到了人工智能发展到一定高度会失控的风险,这是一个无法逃避的问题。然而,人工智能的发展会因为潜在失控风险而自我放弃吗?绝对不会。既然科幻小说中的场景终将出现,我们要做的就是如何消除风险,这也是机器人三大定律被广泛关注的原因。
有人会问,三大定律有用吗?我觉得不用当真,因为漏洞太多,本身阿西莫夫就是提出一个思路,他的小说情节设计,都是围绕着漏洞展开的,比如《消失无踪》里面藏起来的没有载入完整定律的机器人,就是利用特定场景下定律之间的对抗进行辨认的。
在人工智能奇点来临之前,受到技术制约,机器人在辨识,判断,反馈上会有偏差,但技术问题还是好解决的,只是时间问题,风险主要在人类本身,人类可以制造违反三大定律的机器人,有观点说人工智能成熟后最可能大量应用于武器,人类可以制造出机器人武器三大定律,机器狼人,机器人部队,或许那将是一场灾难,想想都觉得恐怖。
奇点之后,会发生什么很难预知,机器人的智力超越人类,而且差距会越来越大,彼时让一个高智商群体去遵守低智商生物的原则也不太现实,就像人类会听从狗指挥吗?把人类比成狗似乎不太恰当,但至少那时候智力水平是弱成狗的。人和机器人的界限也模糊起来,生物和机器变得很难区分,如何去定义三大定律中的人类和机器?
人工智能最终走向何方谁也说不清楚,科技大佬马斯克,科学大师霍金都曾是公开反对人工智能,都认为人工智能最终会让人类走向灭亡。不过,后面态度的转变,由反对到进行研究,源于不可挡的趋势,而我们能做的就是走进这个深渊,看看到底会如何。
网友评论