首先,选择两个主体:
鹰 兔
要达到的目的是,抓住兔子,这样子就必须两者在空间上非常接近。
也就是距离差尽可能地小。
在这个过程中,是什么做的呢?
第一步,眼睛观察,确定相对距离差,然后大脑处理以后,使得相对差减小。通神经系统把这个神经冲动转化为翅膀的动作。 第一步,把兔子的各种信息转化为大脑能处理的信息量。
第二步,处理信息量,缩小可能性空间。
第三步,把信息输出去,转化为翅膀能理解的信息量。
在这个过程中,是相对距离在减小。这个控制过程一次次地执行。在整体上就呈现出相对距离不断地减小。也就是距离兔子越来越近。在这里,展现的就是连续控制的思路。
负反馈的本质在于设计一个目标查不断减少的过程,通过系统不断把自己控制后果比价,使得目标差在一次又一次控制中慢慢减少,最后达到控制的目的。
我们来分析一下啊这个过程,首先才能在一个目标差:可以是距离差,可以是高度差,可以是状态差。其次,这种目标差可以是细分的,不断分下去的。这里就出现问题,可分性。目标差到底可以分为几次。这里如果我们把这个问题具体化,例如运动几次就到底目的地点?目标差的可分性。那么,为什么要这样分呢?原因是选择主体的能力选择能力不足以一次性到底。只能一步步来,例如,我们 在千斤顶顶起轮胎的过程中。我们的目的是最后顶起来,这个状态和当前的状态有差值,我们要调整的是对千斤顶当前状态和最终状态的差值的差值 。
前行 执行计划:很不错,我补充一点。目标不仅有渐进式的,还有类别并列式的。
比如你要在书架上放书,随便一放,当然很容易,但是早的时候就可能非常困难,按分类摆放,找的话就很容易。
但是按什么分类放这就很随意,然后人为摆出一个分类之间的规律,就会把它更简单化。同样一个大分类之间它也可以分,但如果分的太详细,对于小书架来说精力就得不偿失。这就需要根据实际情况考虑可分程度。尤其是做数学,在解方程的时候约分,化简,因式分解,都可以在一步之内完成。
但如果人为的定义,先约分,再化简,再因式分解,对我来说就会更好。(也是亲身经历所以感慨一下)(也是暖一下回答)
白泽:我们首先确认了目标差的可分性。
现在我们来确认出现目标差以后自动出现某种减少目标差的反应。
这个是什么呢?出现出现目标差,自动减少一部分目标差。这里体现的是目标差的可分性。那么行动以后,再次提取信息,还是有目标差。
不过这个目标差比前一次的目标差小得多。在一次次地循环中,目标差正好符合我们的需求。假设一次能减少的目标差是k个单位
总得目标差是v个单位。 最能接受的最小目标差是f,那么可以出现公式:v--kx<f。这里x次就是我们需要控制的次数。但是这是正确的吗?不是的,区间是在超过与不足之间徘徊。我们要确定的是目标差在自己接受的目标差之内就行。那么,现在,我们就要把式子更改成7-kx/<f就好。那么,这个式子有什么用呢?
第一,认识目标差的可分性,
第二是,明确目标差是需要多次去减少的,
第三个是,明确自己能接受的相对误差。
不对,我能接受的东西也是一个可能性区间。
区间上限和区间下限。 最后的目标差要在能接受的可能性空间里面波动。
理解了,把区间上限和下限的差值绝对化就行。把f指示为差值的绝对值就搞定。
7-kx/<f。搞定,现在我们能理解什么是负反馈了。对目标的逼近能累积起来。
总的目标差分为两种:一种是 调节以后减少的可能性空间,一种是还没减少的可能性空间。随着负反馈一次次地进行。前者在增加,后者在减少。我们的目的使得前者不断增加,后者不断减少。那么,这里就可以类比电脑提示下载文件进度的进度条。我下载书的时候,会提示已经下载完成百分之几。已经下载完的就是对下载完成目标的逼近的累积。还没下载的就是我们要减少的可能性空间。因此,这里可以使用进度条来衡量控制的程度,到了那一步。结束。
负反馈过程中,控制能力的增大。之前说控制能力是定义为之前和之后的可能性空间的比值。和我的是倒过来的,这里采用作者的定义。
第一次是:
a/b
第二次是
b/c。
联系起来就是:
a/b x b/c=a/c
若是进行无穷次负反馈控制,那么控制能力是 最开始的可能性空间/最后的可能性空间
这显然比控制者单独控制一次时,之前和之后的比值大得多。
因此,这里有,负反馈控制使得控制者的控制能力增强。
后面的问题提到这,确实是的。这个有什么用呢?导弹打基地。直接发出去攻击要求的控制能力太高,不如让导弹自己修改相对距离差。通过负反馈来完成,这就只需要把导弹发出去,不必调准的那么精确。对控制能力的要求不那么高。显然,朝着一个方向发射比朝着远处的一个点发射容易的多。 结束。
网友评论