文 | 岫月
“诺埃尔。”我咳了两声,扶着他的手站起身来,“你怎么追来了?”
“小艾跟我说了,”他有些不自然地掸掸手,“我也知道自己这两年会时不时失忆。”
“你要跟来吗?”我问他,“我不想跟你的另外一个人格相处。”
“我来把那个熊孩子拎回去。”他撇开眼神,“你去哪里和我无关。”
“走吧,”我淡淡道,“把他带回去你也赶快走。”
诺埃尔有些无奈地抓了抓额头:“这个给你。”
我低头一看,是一张完整的面具。
“首都那边很多人都认得你的脸,全部遮上保险一些。”
我接了下来:“破费了,你那个人格我会想想办法,看看有没有心理医生什么的。”
“我没有神经病!”诺埃尔加重语气。
“神经病都这么说。”我耸耸肩。
“算了,等我抓到李维再跟你解释。”诺埃尔看了一眼身边转过脸的半脸人。
熊孩子李维在机械方面还算靠谱,已经坐在火车上等着我们了:“嫂子!”
他冲我挥手,但是在看到诺埃尔的那一刻就蔫了下去:“哥。”
“回去。”诺埃尔对他道。
“不回。”李维气鼓鼓道,“为什么哥能带着嫂子一起出来,就不带我?”
“等你学会走路看路、生火、做饭、钓鱼、爬树,再扔掉那些乱七八糟的发明之后。”诺埃尔一字一顿地指着他说,“现在趁我还有耐心——回去!”
“才不!”李维从座位上一跃而起,推开车厢门就跑向了车头方向。诺埃尔跟在他身后追了过去,我懒得参与这场闹剧,干脆坐在原地没动。
十分钟之后,火车发出了鸣笛。
我看着身边的渐渐后退,突然反应过来——我似乎没见到那两个人下车。
不会吧,他们没下去吗?我皱着眉,打开了李维逃跑方向的门,然后又是一扇,一直走到车头的特等车厢。
李维趴在红色的软座上,手脚都被诺埃尔绑着。
“这是什么play?”我叹气,“说好的抓到他就回去呢?”
“这下哥就没办法了,我们要一起走啦!”李维在座位上一扭一扭。
“谁要跟你们一起走,”我摇头,“等到地方就各走各的,让诺埃尔把你带回来。”
“等等,”诺埃尔道,“我想跟你一起去找那个黑玫瑰。”
“你之前可不是这么说的。”我看了他一眼,“我不想和定时炸弹一起行动。”
“我说了我不是……”
“啊,关于那个,”李维插话道,“哥的确不是神经病,他的那个人格应该不是他自己。”
“什么意思?”我问他。
“神经连接器的作用是双向的,能将计算机所有的信息复制进你的潜意识里。但我们当时忽略了一件事情——计算机里不仅有死的信息,还有活着的。”
“活着的?人工智能吗?”我不解。
“没有任何证据能表明人工智能没有独立的人格,计算机里也可以储存记忆和情感。”李维道,“虽然计算机的保护措施会将人心里的恐惧具象化,但我不认为哥会因为这点小事受到影响,所以我们猜测他是在哪次破解密码的时候将一个产生自主意识的人工智能也拷进了自己的脑子里。”
“所以你是说他的另一个人格是个人工智能?”
李维点头:“但理论上,所有人工智能都应该遵守三大定律,不能伤害人类。即便你感觉它很危险也不会真的对你产生实质性伤害。”
阿西莫夫的机器人三大定律我是知道的:
一、机器人不得伤害人,也不得见人受到伤害而袖手旁观
二、机器人应服从人的一切命令,但不得违反第一定律
三、机器人应保护自身的安全,但不得违反第一、第二定律
但这三条定律是有漏洞的啊,哪怕加上第零定律也没法确保人工智能的安全性吧。
“既然是人工智能,你们不能想办法删掉吗?”我问他们。
“这是史无前例的事情,人工智能的思想竟然占领了人类的身体。”诺埃尔道,“即便想删除我们也一时不得要领。”
“我还有一个问题,”我沉思了一会儿,“这个人工智能既然使用的是人类的身体,那它对自己的定位是什么——机器人还是人?如果是后者,那三大定律还能对它起到约束作用吗?”
回答我的是一片沉默。
沉默过后,第一个出声的是李维。
“嫂子,我保证不跑,能先把我放开再讨论这些问题吗?”
—————————————————————————————————————————————————
第零定律是机器人必须保护人类的整体利益不受伤害。
我又头疼又要复习考试,真的描写不下去……接着流水账吧。。
昨天我们楼可能有一个人检查出了阳性……还不知道具体情况……还要考试
欢迎点赞评论交流~
网友评论