美文网首页
20220920听书笔记:《我们如何学习》1:学习的机器

20220920听书笔记:《我们如何学习》1:学习的机器

作者: 幸运星小燕子 | 来源:发表于2022-09-19 06:43 被阅读0次

每个人都有天生的学习能力,所以都能学习 —— 但是学习了如何学习,能让我们更聪明、更高效地学习……不过对咱们精英日课的读者来说,了解学习方法还有一个原因:我们对大脑非常好奇。大脑是如何学习的,这件事儿本身就很有意思。

迪昂这本新书的特色恰恰是学习的底层原理。他结合了脑神经科学、认知心理学和计算机科学,告诉我们有关学习的最新研究进展。他提出了四个学习原则,这些原则我们早就知道了 —— 但是了解了底层原理,你就会更加坚定、也会更灵活地运用这些原则。

我希望每个人都成为学习专家。要理解学习,你必须了解大脑。

大脑是一台神奇的学习机器。你可能听过一个词叫“大脑的可塑性”(Brain Plasticity,也叫 Neuroplasticity),大脑非常……皮实。一个孩子三岁的时候头部中弹,导致全身瘫痪并且彻底失明,但他的语言天赋却完全不受影响,七岁就会好几种语言,还出版了自己的小说,还自己画了插图!他根本没见过“山”是什么样子,但是他能想象出来。

这是什么样的学习能力。迪昂列举了很多这样的案例。一个从十一岁起双目失明的孩子长大后成了著名数学家,而且研究的是代数几何:你不用眼睛看能做几何题吗?一个被切除了大脑的整个左半球的孩子可以创作出非常厉害的绘画。一群从小被扔进孤儿院与世隔绝的孩子,长大之后也和正常人一样……你说作为家长还有什么可担心的。

可是在另一方面,有时候大脑因为一个小小的损伤,就会失去重要的学习功能。有好几个人在创伤后发现自己不会阅读了,对眼前的文字怎么看都不认识,然后不管多么努力地训练,阅读速度都比不上一个幼儿园小孩。

这本书的主题就是怎么才能把大脑用好。好消息是我们的大脑都差不多,基本原理是一样的,书中的知识适用于每一个人。咱们先强调一个最关键的原理:有些知识是天生的。

这个道理我们讲爱德华·威尔逊《创造的起源》的时候说过 [1],叫做“先备学习(prepared learning)”。科学家的最新认识是大脑不是白板,小孩刚出生,就已经预装了很多知识。对光线和声音怎么反应,关注语言,害怕危险的东西,这些事儿不用专门学,都已经写在基因里了,天生就会。

但是不能什么知识都预装。首先装不下,人的 DNA 全部的信息、包括把各种冗余都算上,只有750M,相当于一张老式 CD 的大小,真存不了太多东西。更重要的是,把大部分知识留到出生以后学习是更好的策略,因为你不可能事先完全知道到时候能用上哪些知识。我们讲戴维·威尔逊《生命视角》的时候说过这个先天和后天的道理 [2],这个策略能让我们最灵活地适应新环境。

连最简单的线虫都有学习能力:它能适应环境变化,它能记住各种线索去找到营养丰富的地方,并且在路上避开有它不喜欢的气味的地点。

人就更擅长学习了。相对于需要学习的知识而言,我们大脑的“容量”几乎是无限的。我们有最大的学习潜能,学习对我们的影响也最大,不同的人因为学习而产生的差距也最大。能在青少年时期用十几年的时间专门受教育,这是现代人的特权。这种系统性的教育让你的短期记忆力比从来没有受过教育的人高出一倍。你每多受一年教育,平均智商就能提高几分。学习不但是你不断适应新环境的关键手段,而且能把你变成不一样的人。

但不管怎么学,都别忘了我们也是一种生物。先天预装知识和后天学习相配合这个机制,对我们非常重要。

迪昂这本书中有个逻辑我觉得特别有意思,也许可以叫做“反向仿生学”。

上世纪八十年代,计算机科学家有感于传统算法做人工智能不行,转向人脑学习,这才搞出了神经网络算法 [3]。现在神经网络有个更时髦的名称叫“机器学习”,是一切 AI 基础。计算机科学家在这个基础上发明了各种策略和方法,其中也是不断地在借鉴人脑,他们非常关注脑科学的进展。可以说 AI 是对大脑的仿生学。

但是教学相长,脑科学家也非常关心 AI 算法的进展,也从 AI 中悟出来了很多道理。有时候计算机科学家独立发明一个能提高机器学习效率的新方法,结果脑科学家一看好像人脑也是这样的……这就是反向仿生学。

这个道理是大脑也是一个神经网络。有时候你和一个跟自己相似的东西对照,更能看清自己是怎么回事儿。大脑的一些基本学习原理跟 AI 相同,高级的原理比 AI 高得多,这一讲咱们先说相同点。

1.模型

所谓学习,迪昂说,本质上就是训练我们大脑内部的模型。

我们专栏讲过太多关于模型的知识了,模型是真实世界在你头脑里的一个缩影。这个缩影不可能完全再现真实世界,但它应该包含真实世界最关键的特征,它能用于解释、甚至预测真实世界。大脑和 AI 都是神经元的网络,所以模型无非都是神经元的连接结构和连接强度,可以用一系列参数表示。学习就是训练模型,就是通过和真实世界互动,用数据的反馈来调整那些参数。

2.分层

神经网络模型是分层的。比如学语言,不管是小孩学说话还是 AI 学语音识别,最底层都是识别音节,是简单的声音。往上一层是字词,再往上是语法,帮你连成句子,再往上一层是意思……每一层有每一层的规律。在机器学习领域,分层是一个重大进步,分层的神经网络就叫“深度学习”网络。

3.监督学习

怎么训练模型的参数呢?最简单的方法就是随时提供有效的反馈。

比如你练习射击。你打了一枪,一看靶子,发现你瞄得太往上了,子弹偏离了靶心 5 厘米。这就是两个关键的反馈信息,一个是偏离的程度,一个是偏离的方向。那么下一枪你就根据这两个信息调整,稍微往下瞄一点。如果第二枪的结果是向下偏离靶心 2 厘米,那你就以更小的幅度再往上调整一点。

在机器学习领域,这叫做“有监督式学习(Supervised Learning)”。神经网络每做一个动作都会收到这么好的反馈:既知道差了多少也知道差的方向是什么,然后下一步就明确知道该怎么对参数进行微调。当然学习射击比较容易因为只有几个参数,复杂的学习需要调整的参数就太多了,要有极多的训练数据,但是原理是一样的。

反馈,是学习的关键。

4.“任意的震动”

机器学习中,有时候你通过一系列反馈很快就找到了一个最优解,但是你不能确定它是不是全局的最优解。你只搜索了一个局部,也许别处还有更好的东西你没发现。计算机科学家的办法是故意给学习加入一些随机的变化,就好像生物演化中的基因突变一样,也许就能收获惊喜。

大脑学习也应该这样。你得博览群书开卷有益积极探索,时不时跳跃到别的地方看看。我们专栏讲过“任意的震动” [4],混乱能带来惊喜。

5.无监督学习

有老师手把手地教,每一步都给反馈当然好,那要是没有老师怎么办呢?也许更好。当初 DeepMind 公司出的 AlphaGo 和 AlphaZero,都不是跟围棋教练学的下棋,它们使用的是“无监督学习(unsupervised learning)”算法。

无监督学习只有一个外部反馈,那就是最终这盘棋你是赢了还是输了。中间哪一步你走的对不对,没有人告诉你。

那这棋怎么学呢?你必须自己给自己提供反馈。无监督学习算法会分出两个角色来,一个是批评者(critic),一个是行动者(actor)。批评者的任务是根据以往的对局经验,随时评估当前局面的胜率大小。比如你的地盘很大,它就能感觉到你取胜的概率大。行动者则是根据批评者的评估意见试探下一步走法:如果批评者说走这里胜率会降低,行动者就换个地方……

我们大脑有时候也是这样学习的。小孩学走路,大人并没有告诉他每一步腿迈的对不对 —— 他自己摔倒过几次就有经验了,知道走成什么姿势容易摔倒,然后就会避免走那个姿势。

6.抓住本质

机器学习的模型是不是参数越多越好呢?不是。参数太多会让你陷入“过度拟合” [5]:就好像上数学课,你学解题学的是套路的一般性,而不是那些例题里特殊的细节。你既要善于学习,也要善于忽略,才能抓住本质。

7.内在知识

我们讲过机器学习的“卷积算法” [6],一下子就把计算机图形识别的能力提高到了实用水平。卷积算法的关键是它并不是在一无所知的状态下看图:它已经对所有的图形都有一定的了解,能够识别一些最基本的图案,比如线条、圆圈、斑点等等。新的图形在它眼中都是已知图案的组合。它善于运用自己的“内在知识”。

大脑的学习也是如此。你从来都不是“从零开始”学什么东西,你总是把新知识看做旧知识的组合。我们出生之前,基因就已经告诉我们如何识别声音和光线,所以接下来的语音和人脸识别都是在更高的层面上进行的,所以才学的那么快那么自然。

***

通过审视机器,我们也能审视自己的学习。你的基础知识学扎实了吗?你是把失败当做反馈还是把反馈都当做失败呢?你做事的时候内心有个“批评者”吗?你的批评者会影响你的情绪吗?你喜欢新东西吗?

……这么一对比,大多数人的学习态度远远不如机器。

但大脑的确比机器厉害得多,咱们下一讲再说。

相关文章

网友评论

      本文标题:20220920听书笔记:《我们如何学习》1:学习的机器

      本文链接:https://www.haomeiwen.com/subject/kjobgrtx.html