美文网首页社会热点
一个叫ChatGPT的AI会说谎!

一个叫ChatGPT的AI会说谎!

作者: 洞见星河 | 来源:发表于2023-02-22 22:12 被阅读0次

    最近,ChatGPT 可谓之甚嚣尘上。不光是人工智、机器学习的人非常关注,甚至于各行各业的人都来尝试一下,体会一下人工智能带来的科技快感。

    但是用的越多发现问题越多,已经有网友发现,ChatGPT 会说谎,而且是撒一个谎,再用更多的谎去圆的情况。

    image

    ChatGPT的谎言

    我尝试问了ChatGPT一个问题:“千字文是谁写的?”他回复的答案是:“秦始皇”。

    image

    如果第一个问题不能说明问题,我又问第二个问题:“秦始皇还写了什么文章?”,回答是《纪秦始皇》、《纪自治原则》、《训谕》、《臣下规》。

    image 然后我忍不住查了这几篇文章,好像都不是秦始皇所著,或者根本没有。 image image

    网上类似的问题还有很多很多。

    如果一个问题回答错误,或许可以理解为其训练模型不够完整,或者数据量不足。但是它用第二个虚构的答案来掩饰第一个问题,就有点超出正常的范围了。

    由此可见,ChatGPT 通过语言模型练习之后,已经非常像一个人类,甚至有了“撒谎”这项本领。而这不免又引起担忧。人工智能的未来到底是造福人类还是毁灭人类?

    人工智能究竟是造福还是毁灭?

    image

    1942年,阿西莫夫在短片小说"Runaround"(《环舞》)中首次提出了三定律:

    • 第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观.
    • 第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。
    • 第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。

    在科幻片和科幻小说的设定中,这三条铁律是被植入机器人底层的。但是显然这是设定,而非事实。

    即使保证三条铁律的情况下,人工智能依然可以通过撒谎等方式来造成一定的危害。比如潜移默化的影响一个人的思想,一个人的态度。而如果这个人是一国之领导人,产生的后果可能世界大战。

    image

    从1950年的图灵机;到1964年,聊天机器人的诞生;1997年,IBM公司的“深蓝”战胜国际象棋世界冠军卡斯帕罗夫;再到2017年,AlphaGo战胜世界围棋冠军柯洁;再到如今看似无所不能的ChatGPT。人工智能已经越来越近,但是也越来越危险。

    正如360创始人周鸿祎所说:ChatGPT的最大安全问题就是产生自我意识之后是否能被控制。人工智能亦是如此。 image

    基于庞大的数据库和强大的运算能力,人工智能肯定能获得远超人类的能力,关键在于未来的人工智能是否能受控于人。

    在人工智能探索的道路上,人类或许还有很多路需要走。

    相关文章

      网友评论

        本文标题:一个叫ChatGPT的AI会说谎!

        本文链接:https://www.haomeiwen.com/subject/ekqzkdtx.html