美文网首页互联网科技小能熊365天写作计划@IT·互联网
当机器以人的方式学习,人还学不学习?

当机器以人的方式学习,人还学不学习?

作者: Howie_Serious | 来源:发表于2016-03-09 22:31 被阅读652次
    会学习的机器人Ultron

    这是Howie-Serious 365日写作计划第041天的写作内容。

    这一次的人机大战为什么如此重要

    AlphaGo

    这一次AlphaGo对战李世石,对学习者的影响尤其巨大。因为,

    这一次,机器在以人的方式学习。

    AlphaGo的学习方式就是现在热门的深度强化学习。

    所谓深度强化学习(Deep Reinforcement learning),是指机器通过模拟人脑的神经网络建立深度的人工神经网络,模拟人脑的学习机制来学习、判断、决策,已经被用于语音识别、人脸识别、笔迹识别和自动驾驶等很多领域。

    人脑的学习机制

    人类的学习

    那么,我们得先回到人脑的学习机制。人类的学习原理基本上是这样:

    • 大量输入,提取概念;

    从信息/资料中提炼出的基本的、抽象的、通用的、围绕问题本质的理念或思想。

    • 加工整理,建立思维模型;

    一句话,思维模型就是『安装在人脑中的App』。每个『人脑App』,都专门解决一个主要问题,有一个主场景,它将将解决问题所需的不同步骤捆绑在一起,形成完整的解决行动方案和体系。

    • 概念之间建立联系;

    将新知识融会贯通,将新知识联系到旧知识,将抽象概念联系到具体事例

    • 理论联系自己的实践,解决现实问题;

    我们不是为了学习而学习。我们的学习,是为了解决现实问题,这种情况下的学习效率最高,我们也最有动力。

    • 新知识整合到已有知识体系,进一步完善知识体系;

    建立内容完善、结构清晰、逻辑连贯的知识体系,是达到精通/『学会』的一个必要条件。

    AlphaGo以人的方式学习围棋

    比赛现场

    AlphaGo学习围棋的方法和人类的学习方法可以说是完全一致的:
    (来自谷歌官方博客文章:AlphaGo: using machine learning to master the ancient game of Go)

    • AlphaGo通过研究3000万步人类围棋大师的走法来学习围棋规则
    • AlphaGo利用自身的神经网络自我对弈上千局,探索新的围棋步法
    • 在自我对弈的训练中通过不断试错的方式积累胜负经验,评估棋局并形成全局判断
    • 构成策略网络给出落子选择,构成评价网络修正落子选择
    • 随着训练增加,AlphaGo不断进步
    • 这是极其「高强度」的自学过程,背后依托强大的谷歌云计算平台(Google Cloud Platform);

    作为人类学习者,我的问题

    那么,作为一个人类学习者,问自己几个问题:

    • 机器已经以人的方式学习,人类在学习上还有什么优势?

    不论是输入材料的数量级和速度、对材料加工整理提炼规律的能力、完善策略网络/知识体系和经验积累的效率,人类似乎完全没有优势呢。

    • 如果人类学习没有优势,是否还会去学习?

    哪怕不担心机器威胁人类,假设机器以最大的忠诚服务人类,能干贤惠,帮我们把所有事情干了,没事干的人到底去干什么?

    自动驾驶取代老司机,谷歌翻译会淘汰人工翻译,计算机财务系统会淘汰财务人员,计算机审计会取代审计师,等等等等,人啊,去干什么?整天刷微信吗?

    • 如果不学习不劳动,怎么自我实现?

    从马斯洛需求层次出发,有了如此聪明的机器的帮助,物质极大富足后人人的基本生理需求、安全需求都得到满足,难道从此世界上就充满爱?人们是否会专注于去实现「自我实现」这个人类终极需求?
    但是,如果没有了学习和劳动,人是否还有能力去实现自我?

    似乎,人类马上就要「被科幻」了

    不到一年前,专家们还说计算器在围棋比赛中打败人类至少需要10年。看来,「未来」到来的脚步,比所有人想象的都快些。

    未来的人类,会不会这样:

    再也不用学习了

    或者这样:

    再也不用学习了

    或者这样:

    连走路都不用了

    相关文章

      网友评论

        本文标题:当机器以人的方式学习,人还学不学习?

        本文链接:https://www.haomeiwen.com/subject/icktlttx.html