姓名:万雪曼;学号:21000500024;学院:电子工程学院Gary Marcus公开喊话Hinton、马斯克:深度学习就是撞墙了,我赌十万美金
参考链接:https://m.thepaper.cn/baijiahao_18496437
【嵌牛导读】2029 年实现 AGI ? Gary Marcus:不可能,我赌十万美金。
「如果有人说(深度学习)撞墙了,那么他们只需列出一张清单,列出深度学习无法做到的事情。5 年后,我们就能证明深度学习做到了。」
【嵌牛鼻子】AI赌约;机器人比没有想象中聪明
【嵌牛提问】AI 时代真的离我们还有很远距离吗?
【嵌牛正文】
在节目里,Hinton 明确对「深度学习撞墙了」这个观点发起质疑。
「深度学习撞墙了」这个说法,来自知名 AI 学者 Gary Marcus 。准确地说,他认为「纯粹的端到端深度学习」差不多走到尽头了,整个 AI 领域必须要寻找新出路。
出路在哪儿?按照 Gary Marcus 的想法,符号处理将大有前途。不过这个观点一向没有受到社区重视,之前 Hinton 甚至说过:「在符号处理方法上的任何投资都是一个巨大的错误。」
Hinton 在播客里的公开「反驳」显然引起了 Gary Marcus 的注意。
就在十几个小时前,Gary Marcus 在推特上发出了一封给 Geoffrey Hinton 的公开信:
信里是这么说的:「我注意到,Geoffrey Hinton 正在寻找一些挑战性的目标。在 Ernie Davis 的帮助下,我确实已经写下了这样一个清单,上周我还向马斯克发出了一个 100000 美元的赌约。」
这里又有马斯克什么事?原因还要从 5 月底的一条推特说起。
与马斯克的十万美金赌约
一直以来,人们所理解的 AGI 是太空漫游(HAL)和钢铁侠(JARVIS)等电影中描述的那种 AI。与当前为特定任务训练的 AI 不同,AGI 更像人脑,可以学习如何完成任务。
大多数专家认为 AGI 需要几十年才能实现,而有些人甚至认为这个目标永远不可能实现。在对该领域专家的调查中,预估到 2099 年将有 50% 的机会实现 AGI。
相比之下,马斯克显得更加乐观,甚至在推特上公开表达:「2029 年是关键的一年,如果那时我们还没有实现 AGI,我会感到惊讶。希望火星上的人们也是如此。」
表示并不认同的 Gary Marcus 很快反问:「你愿意赌多少钱?」
虽然马斯克并没有回复这条提问,但 Gary Marcus 继续表示,可以在 Long Bets 组局,金额是十万美元。
在 Gary Marcus 看来,马斯克的相关观点不大靠谱:「比如你在 2015 年说过,实现完全自动驾驶的汽车还需要两年时间,从那以后,你几乎每年都说一遍同样的话,可现在完全自动驾驶仍未实现。」
他还在博客中写下了五个检验 AGI 是否实现的标准,作为打赌的内容:
2029 年,AI 无法看懂电影然后准确告诉你正在发生的事情(人物是谁、他们的冲突和动机是什么等);
2029 年,AI 无法阅读小说并可靠地回答有关情节、人物、冲突、动机等的问题;
2029 年,AI 无法在任何厨房中担任称职的厨师;
2029 年,AI 无法通过自然语言规范或与非专家用户的交互可靠地构建超过 10000 行的无错误代码(将现有库中的代码粘合在一起不算数);
2029 年,AI 无法从以自然语言编写的数学文献中任意取证,并将其转换为适合符号验证的符号形式。
「这是我的建议,如果你(或任何其他人)在 2029 年设法完成至少三个,就算你赢了。Deal?十万美元如何?」
在更多人的追捧下,这个赌约的金额已经上升到了 50 万美元。不过,截至目前,马斯克再无回复。
Gary Marcus:AGI 并不像你想象的「近在眼前」
6 月 6 日,Gary Marcus 在《科学美国人》发表文章,重申了自己的观点:AGI 并非近在眼前。
对于普通人来说,人工智能领域似乎正在取得巨大进步。在媒体的报道中:OpenAI 的 DALL-E 2 似乎可以将任何文本转换成图像,GPT-3 无所不知,DeepMind 5 月发布的 Gato 系统在每一项任务上都性能良好......DeepMind 的一位高级管理人员甚至吹嘘已开始寻求通用人工智能 (AGI)、AI 具有与人类一样的智能水平......
别被骗了。机器有一天可能会和人一样聪明,甚至可能更聪明,但远不是现在。要创造真正理解和推理现实世界的机器,还有大量的工作要做。我们现在真正需要的是更少的吹捧姿态和更多的基础研究。
可以肯定的是,人工智能确实在某些方面取得了进步——合成图像看起来越来越逼真,语音识别可以在嘈杂环境中工作——但我们距离通用的人类水平 AI 还有很长的路要走,例如人工智能现在还不能理解文章和视频的真正含义,也不能处理意外障碍和中断。我们仍然面临 AI 多年来一直存在的挑战——让人工智能变得可靠。
以 Gato 为例,给定任务:为投手投掷棒球的图像加上标题,系统返回三个不同的答案:「一名棒球运动员在棒球场上投球」、「一名男子向棒球场上的投手投掷棒球」和「一名棒球运动员在击球,一名接球手在一场棒球比赛」。第一个答案是正确的,而其他两个答案似乎包含图像中看不到的其他球员。这说明 Gato 系统并不知道图像中的实际内容,而是了解大致相似图像的典型内容。任何棒球迷都能看出这是刚刚投球的投手——虽然我们预计附近有接球手和击球手,但他们显然没有出现在图像中。
网友评论