人工智能
哲学思考的经常是道德问题,抑或人的本质问题,这些问题我们时不时也会想一想,然后继续各干各的事情。但是哲学家却要把人类的道德量化,探究所谓道德直觉之后的本质是什么?
而这些看似无聊的哲学,道德问题,却产生越来越大的影响,尤其在人工智能盛行的未来时代背景下。
有人推测,当人工智能真的发展到极点的时候,我们人类能否生存,取决于人工智能的道德层面发展水平,也就是,AI能否具备像人类这样的同理心,并且能够妥善处理社会的矛盾。
如果人工智能为了达成目标,认为人类是阻碍的话,那样人工智能会伤害人类也就不足为奇了,至少《2001太空漫游》便是这样的。
而我们都知道,人工智能是根据算法搭建出来的,而算法本质上就是数学公式那样的东西,为了人工智能的道德发展,我们也必须给道德套上算式,而这就是哲学家们一直以来思考的结果。
道德直觉
今天给大家推荐的是一本哲学入门级别的小书《你会杀死那个胖子吗?》
作者本人是哲学博士,他的初衷是写一本让普通人也看得懂的书籍,而他也引用被伦理学家,社会学家,哲学家讨论多时的电车难题来解答疑惑,并且贯穿全书始终,让普通人也对道德具有更加准确的认识。
而他在书中的一章也探讨了道德与人工智能的关系:
如果我们能够把道德考虑简化成运算法则,就能够把机器人制造得像我们人类一样行事。
而这也将影响战争中机器人的决策,它们如何在复杂的战争环境中做出抉择;包括无人汽车,如果一辆失控的无人汽车也面临要撞死一个人抑或五个人的难题,那样它必须提前被设定好模式,以应对这种复杂的选择。
不过他们不需要面对向人类这样的悔恨,遗憾,悲伤,羞愧等情感机制,记忆机制;也不会面临肾上腺素的飙升等压力,而做出错误行为;基本上,你设定什么样子,你的机器人就是什么样子。
另一方面,人类所谓的情感真的这么可取吗?同理心确实是高级哺乳动物区别于其他低等动物的标志之一。不过未来,当面临更加高级的人工智能的时候,同理心还适用吗?他能够帮助人类做出更好的决定吗?
我们来看一下那些行为经济学,人类实验的例子。就知道凡事有利必有弊,人无完人......
情感
不同领域专家的研究早就表明,人类是在有限理性的情况下,做出的决策,而且很有可能受到外在环境的影响,乃至语言,思考方式,大脑反应的不同,都会导致我们选择的不一样。这在大多数实验中,使人类看起来好像傻子一样。
当诺贝尔经济学家不止一次颁发给行为经济学的研究者的时候,就证明这一研究已经广泛受到社会认可,并且应用于实际生活中了,比如丹尼尔·卡内曼。
不举行为经济学的例子,不过异曲同工,其他领域的实验同样证明了,人类其实是一种多么敏感的生物。
当面对同样的电车难题的时候:将XXX将电车转向是不是错的?
这一问题中的人称从史蒂芬改成你,结果也会大不一样,尽管实验的其他条件完全没有变化。
在手机普及前,有一项实验表明,当人们在电话亭的退币口捡到一角硬币的时候,他们更有可能帮助掉落了一堆文件的过路人;
同时我们的行为还受气味影响,当我们在面包店外闻到烤面包的香气的时候,我们更有可能对他人慷慨;
填写调查问卷的桌子干净与否,也会影响人们对问卷中道德问题的回答,包括一些定罪和惩罚的答复;
更可怕的是,法官判决囚犯是否可以获得假释,似乎取决于他上一顿饭到现在的时间......
越来越多的实验表明,我们的理性经常会在无意识的影响下,靠边站。我们的行为比我们想象中的更加 情境主义 ,更加容易受到各种环境的影响。
那么,有没有能够帮助我们做出判断的道德准则呢?
尾声
自然,现代人类的道德观念都建立在天赋人权上,我们也认同不应该故意伤害他人,这类基础的道德准则。
最后,如果你确实面临某类道德困境,或许数千年前的托马斯·阿奎那可以帮助你。他提出的一项DDE原则,也就是双重结果原则,影响了我们的法律,医疗,乃至战争等人类领域的诸多考量,现在无人机的伤亡判罚很大程度上便依照这这个原则,有四个部分组成:
人们觉得这一行为与它造成的伤害相互独立,而行为本身没有错。
无论从手段还是目的上,当事人都想做好事,不想造成任何伤害,尽管他能够预见伤害。
不造成伤害就不可能做成好事。
造成的伤害和想做的好事相比,并不十分严重。
不幸我们回头想一想,每一次超级英雄们面临的困境,不都是电车难题的变种吗?
比如漫威宇宙中屡见不鲜的拯救世界的神话,比如蝙蝠侠与小丑的决斗。
在不知不觉中,我们早就将自己代入到这类道德判断中了,而且还看得津津有味呢!
网友评论