美文网首页每周500字
科普 | 人工智能的那些烧脑理论

科普 | 人工智能的那些烧脑理论

作者: 语音灵犀 | 来源:发表于2016-11-15 18:06 被阅读175次

    机器人三定律

    理论内容

    一、机器人不得伤害人类,或因不作为使人类受到伤害。

    二、除非违背第一定律,机器人必须服从人类的命令。

    三、除非违背第一及第二定律,机器人必须保护自己。

    但后来,阿西莫夫加入了一条新定律:第零定律。第零定律:机器人不得伤害人类整体,或因不作为使人类整体受到伤害。

    提出者

    1942年,阿西莫夫在短篇小说"Runaround"(《环舞》)中首次提出,来保证机器人会友善待人。

    悖论讨论

    第一定律说,机器人不得伤害人类,或因不作为使人类受到伤害。假如两人互相斗殴,机器人应当选择帮谁呢?加入任一方都违反第一条前半部分,不加入却又违反第一条后半部分。

    为了解决这个问题,阿西莫夫对此定律作了修正,他提出“第一定律潜在值”(firstlawpotential)的概念,意即在智慧机器人的“正子脑”中,第一定律可能引发两种潜在的选择,而哪一种选择的结果更好、成功率更大,哪一种选择就会胜出,这一点有点类似于达尔文神经主义。这样一来,女孩子常喜欢问的“我与你妈掉入河中你先救谁”的史上最难问题得以解决,机器人给出的答案是“救你”!因为你更年轻健壮,把你救上岸的可能性较大。“救你”你很高兴,但是不被救的人会高兴么?

    第二定律,除非违背第一定律,机器人必须服从人类的命令,于是主人说你帮我去抢银行吧,抢银行也是一种工作,不违反第一条,那么机器人一定是去抢银行或者制作炸药。那么这种违法的事情算不算违背第一定律?

    第三定律, 除非违背第一及第二定律,机器人必须保护自己,欺骗算不算是违背第一第二定律?比如机器人给出虚假答案甚至制造虚幻生活的环境,算不算违背第一第二定律。

    第零定律, 阿西莫只是偷换了概念,把第一条的个人换成了人类,但是人类之间是有不同的利益团体构成的,如果两个集团发生武装冲突,但是其结果必定是:任何一方都认为自己是正义的对方是邪恶的,双方都研发自己的机器人并将其投入战争,然后开始做着伤害人类的事情。

    就结果而然机器人做和不做都不对,如果做的话就意味帮助一部分人伤害另一部分人,如果什么也不做的话机器人也就没有存在的意义了,因此三大定律自身就存在着严重的逻辑矛盾。

    我们一起来开个脑洞?

    也许很多人觉得三大定律非常完美,实际上却是非常庸俗的一种想法,举一个简单的例子来说,言情故事中,女朋友对男朋友提出的要求不就是这三条么:

    (1)你要爱我永远不能伤害我;

    (2)你一切都要听我的;

    (3)我不在的时候你要好好照顾你自己。

    是不是和机器人三大定律一样呢。事实上即便他答应了但是他可能做到么?

    别说庸俗的言情故事,你就养个宠物也是这基本要求啊:

    (1)别咬我;

    (2)乖;

    (3)别把自己搞挂了。

    到现在你还会觉得“机器人三定律”是深不可测的么?

    相关影片推荐

    《机械公敌》(I.Robot)-2004年,也被翻译为《我,机器人》,威尔·史密斯主演,适合入门级烧脑体验者,内含丰富感情,视觉效果炫酷。

    图灵测试

    理论内容

    这是一个关于判断机器能否能够思考的著名测试,。如果一个人(代号C)使用测试对象皆理解的语言去询问两个他不能看见的对象任意一串问题。对象为:一个是正常思维的人(代号B)、一个是机器(代号A)。如果经过若干询问以后,C不能得出实质的区别来分辨A与B的不同,则此机器A通过图灵测试。”

    提出者

    计算机科学和密码学的先驱阿兰·麦席森·图灵在1950年的论文《计算机器与智能》中设计出该测试。

    我们一起来开个脑洞?

    “教授,我很害怕。”

    “为什么?”

    “我造出了一个绝对能通过图灵测试的AI。”

    “这是很伟大的成就啊,你为什么要害怕?”

    “可是它没有通过测试。”

    ——细思恐极的老段子一枚

    相关影片参考

    《模仿游戏》图灵测试设计者图灵的高智商英雄之路,精彩程度远胜卷福。

    中文房间

    理论内容

    这个实验要求你想象一位只说英语的人身处一个房间之中,这间房间除了门上有一个小窗口以外,全部都是封闭的。他随身带着一本写有中文翻译程序的书。房间里还有足够的稿纸、铅笔和橱柜。写着中文的纸片通过小窗口被送入房间中。根据Searle,房间中的人可以使用他的书来翻译这些文字并用中文回复。虽然他完全不会中文,Searle认为通过这个过程,房间里的人可以让任何房间外的人以为他会说流利的中文。

    提出者

    最早由美国哲学家John Searle于20世纪80年代初提出。

    悖论讨论

    一个不懂中文的人(西方人认为中文就像天书一样难以理解,如果他认为你的话难以理解,就会说:你说的简直就是中文!)被关在一间封闭的屋子里,屋里有一个完整的中文对照表——任何一个中文句子都对应一个其他的句子,事实上对应的那个句子是前一个句子的答案。你可以用中文向这个人提问,问题写在一张纸条上传给这个人,这个人只要查找对照表,找到对应的中文句子传出来就行了。那么,这个完全不懂中文的人,确实像一个精通中文的一样回答一切中文问题,但是他丝毫不“知道”任何一句话的意思。

    在此基础上,有人提出了更强烈的反击:把爱因斯坦对任何一个问题的回答汇编成一本书,那么你拿任何一个问题去问爱因斯坦,与翻着本书会得到同样的答案,现在我们能说这本书像爱因斯坦一样会思考吗?

    所以转了一大圈,我们还是要回过头来重新审视前面说过的第二个悖论——空地上的奶牛,要重新审视柏拉图的JTB:什么是“知道”?“知道”是什么意思?

    就像欧几里得几何学中最基本的公理是不能证明的,最基本的概念也是不能定义的。你定义一个概念必须使用其他概念,如果你的定义是合理的、适当的,而不是胡扯蛋,那就要求你使用的概念比被定义的概念更基本。“知道”这样的概念就像“时间”,你不问我,我仿佛完全明白这是什么意思,你要求给出一个定义,世界上却没有人做得到。

    我们一起来开个脑洞?

    假如我像流行小说中说的一样穿越时空跑到秦朝,我拿着手机给秦始皇看:“大王,你看这是什么?”秦始皇会怎么回答?“我不知道。”秦始皇明明亲眼看见了手机,他为什么“不知道”呢?秦始皇为什么“不知道”:秦始皇脑袋里没有“手机”这个概念,没有关于手机的相关知识,所以他看见一只手机,也不知道这是手机。秦始皇有“物体”、“东西”的概念,他知道这是一个硬的、长方体的东西,但是他不知道把手机这个东西归为“东西”下边的哪一个分类,更不知道它的性质、特点和用途,所以,秦始皇“不知道”手机是什么。

    相关文章

      网友评论

        本文标题:科普 | 人工智能的那些烧脑理论

        本文链接:https://www.haomeiwen.com/subject/uyllpttx.html