关于强人工智能的乱想

作者: 破石头 | 来源:发表于2018-08-01 12:52 被阅读61次

    人工智能分三个阶段,Artificial Narrow Intelligence (ANI-弱人工智能), Artificial General Intelligence(AGI-强人工智能), Artificial Super Intelligence(ASI-超人工智能)。现在AI处在ANI的阶段,并且发展迅猛。但是感觉弱人工智能发展的再远,它的尽头也不是强人工智能,而一旦达到强人工智能,估计只需要极短的时间就到超人工智能了。强人工智能会是人类最后一项发明——剩下的就由AI来发明就好了。现在最智慧的AI好手都集中在拓展ANI,少有人搞AGI, 或许是因为AGI很难,但不论再难总是要往正确的方向努力。我在这方面想法还相当粗浅,但还是记录一下,也希望看到高手的指点和更正。

    AGI应该是什么样子的呢?能通过图灵测试的就是AGI么?人类并不需要AI会撒谎,会恋爱, 但它要理解这些活动,对AI来说更重要的应该是具备自我意识,可以自主思考和学习。把AI做的跟人一样不需要是AGI的目标。

    AI的发展方向有很多,比如计算机视觉,无人驾驶和语音识别等等。那么什么方向适合做强人工智能的突破口呢?我觉得关键在于自然语言处理(NLP).这里有两个主要原因:

        1. 强人工智能需要具备基本知识,知识的输入和内化要求自然语言处理。

        2.  自然语言处理的发展已经比其他方向突破更多。

    解释一下为什么我认为NLP相对于其他方向更接近AGI. 现在人工智能最擅长的仍然是有监督学习,尽管现在已经有了像GAN(generative adversarial networks)这样的技术, 比如可以用它生成模型没见过的图片,这让AI看起来似乎有了"想象力",但这种想象力仍然有比较大的局限,我不认为这是真正广泛意义上的想象力。顺便说一下,从心理学的角度讲,人的想象力也受限于人的见识。科学发展的过程是想象力和技术交替彼此超越的过程,这一点我是承认的。AI在无监督学习方面相对于有监督学习还比较弱。一个人第一次看见蜥蜴的照片,他下次看到另一张完全不同的照片,即使蜥蜴摆出了完全不同的姿态,颜色也不一样,人还是可以认出这是蜥蜴。这是目前AI做不到的。目前的AI高度依赖label好的大数据。2013年google出了word2vec的论文。虽然word2vec在训练的过程中,仍然借助于有监督学习(CBOW或skip-gram). 但是得到word2vec生成的矩阵后,使用这个矩阵已经有了无监督的意味。把同样的思路推广到用cnn处理图片的话,我们用cnn训练后,中间过程得到的矩阵往往就被扔掉了,但是那里面其实隐含了“知识”。感觉迁移学习可能是计算机视觉的突破口,需要把训练过程中得到的weight matrix保存下来并以某种方式重用。

    科学家通过对DNA的研究和一些试验,已经证实了人类的基因里包含了记忆和知识。 对应于AI, 知识的存取和基于知识的推论是知识图谱(knowledge graph)的范畴。知识可以分为事实性知识, 过程性知识和控制知识,其中事实性知识可以以一个三元组(head, relationship, tail)来表示,比如“老王是小王的爸爸”,head是老王,tail是小王, “爸爸”这个关系把两者关联起来形成知识。 在深度学习流行之前,ASP(answer-set prolog)是研究知识表示以及推论的主要手段。比如爸爸和儿子如果是对应相反的关系,那么由已有的知识和规则,可以推论出老王的儿子是小王,当然,ASP可以做更加复杂得多的推论。在深度学习应用到知识图谱之后,translation embedding(transE)一下子成了热点. 后来又出现了一系列的变种,transH, transR等等。translation embedding可以把知识库映射成一个个低维向量, 可以帮助补全图谱中缺失的信息。隐约感觉transE并不能完全替代ASP。直觉上我还是认为ASP可以在知识图谱中起到辅助作用。在quora上推荐了一本asp的书,knowledge representation, reasoning,and the design of intelligent agents.结果被禁了,估计是有广告的嫌疑吧,其实我自己看的也是盗版书。

    AGI不仅要有知识,还要有自我意识。人是多目标的生物,我们也要赋予AI"欲望", 他才有动力自主学习。AI要清楚自己是AI,不是人。而人是他主要的服务对象,hardcode AI的目标是危险的。比如如果我们给AI一个目标是让人类愉快,AI也许会把人绑起来,用电极刺激人的大脑让人愉快——这是TED中一个演讲的观点,AI目标的设定也应该是从人类行为中“学习”的一部分,我猜学习的对象应该是像我这样的好人吧,从中提取正向的价值观。

    人有好奇心,会问自己问题。AI应该也可以问自己问题,然后从网络中寻找答案——好吧,这有点危险。一路自问自答下去,打破砂锅问到底的底在哪里呢?AI最终要能把知识和对人的意义联系在一起。比如AI知道苹果是一种果实还不够,他要知道它对人类的意义,比如可以饱腹,美味,还能去火之类的。追溯知识到这个程度,才能很好的为人类服务。一定程度上,关注知识与人的关系,也在体现自我意识。另外,人在无意识中,时时刻刻有时间和空间的感受,知识库应该也着重包含这方面的信息。人类有七种基本情绪:高兴,感兴趣,吃惊,恐惧,愤怒,悲伤,厌倦。sentiment analysis应该有种新的output层,用softmax分类这些情绪吧。 

    目前AI的技术都是基于概率的,而我们生活的现实世界很多时候不是以概率为基础描述的。比如我们说老张挺高的,那么多高算高呢?如果定义一米八以上算高,那么179.9999cm就不算高了么?如果我们说一杯水有95%的概率是健康的,那么估计大家都不敢喝,另外的百分之五的可能到底是什么呢?有毒?而我们真正要表达的意思其实是健康度95分。这属于fuzzy logic的范畴。或许这也是AGI的另一个重要的工具。

    人在群体中,在交互碰撞中成长,惩恶扬善的机制推动了文明进步,这符合强化学习的思路(奖惩)。当我们有多个intelligent agent的时候,他们或许可以在交互的过程里,完成基于深度神经网络的强化学习,变得越来越聪明. 强化学习大概也是工具箱里应手的一个。

    目前主流自然语言处理的工具基本都是针对英文的,比如NLTK, TextBlob, Spacy, Gensim等等,不同语言的处理过程可能不同,比如中文没有stemming, lemmatizing的需要。有人说,语言是思想的家。语言可以影响一个民族的思维特性,比如说德语一句话很长,需要从一开始就想好长长的一整句话怎么说,德国人从小就一直锻炼思考,所以基本垄断了哲学界。1984也提到通过消减词语来控制人的思想。那么基于不同语言的AI会不会也有不同的性格?无论如何,我希望世界上第一个AGI是中文的,因为中国不是帝国主义,not kidding. 

    现在深度学习发展的很快,常有突破,去年deep mind发的论文attention is all you need就让人眼前一亮,神经网络大神Hinton正在研究新的网络结构capsule. 没准儿哪天AGI就也突破了呢。预感知识图谱作为AGI的重要环节以后还会大有发展的空间,自己最近也为此学学graph db & cypher, 也在思考写写代码验证一点想法。谁知道什么项目是以自我意识为目标做中文知识图谱的,希望告知一下,如果能为这样的项目贡献只砖片瓦,也算弥补了我作为学渣的遗憾。

    相关文章

      网友评论

        本文标题:关于强人工智能的乱想

        本文链接:https://www.haomeiwen.com/subject/ogdxvftx.html