
不动点定理是非常重要的定理,可以证明算子方程Ax=x解的存在性,甚至唯一性,凝缩原理应该是最基础的不动点定理,巴拿赫不动点定理,之前学习泛函分析的时候也介绍过,巴拿赫不动点定理和迭代法,这个定理保证了迭代法的成立。

凝缩函数的定义,也称为压缩映射,一个区域经过压缩映射的作用会不断变小,直观的考虑,无穷次应用后,就变成一个点了。

完备度量空间中的压缩映射确定唯一的不动点,完备性非常关键,可以保证柯西序列的收敛性,也就是不动点的存在性。

反函数定理要求映射连续可微,这个条件看起来似乎有些过高,因为连续性已经可以保证局部的良好性质,不过,连续函数是可以非常古怪的,我们在生活中宣称的连续,流畅更多的是二阶可导连续,甚至无穷阶可导。所以,使用经验去认识数学概念往往会造成很大的偏差。按我的理解的话,导数保证了切空间的存在,连续保证了切空间的流畅切换,切空间之间的可逆性容易证明,也就是线性代数的基本应用。或者称为坐标变换。


这个就是线性代数的内容,参数之间的互相表示。

开集就是局部,拓扑中的基本元素就是开集,所以可以认为在每个元素上定义了映射关系,是逐点的。

局部一一的,而不是整体一一的,要充分理解这句话,就需要考虑空间的几何构造,也就是拓扑学,局部的不同连接方式可以获得拓扑不等价的整体图景,最简单的例子就是直线和圆的拓扑不等价,虽然都可以表示为一维空间。

隐函数定理感觉上是与向量空间的直和有关,相对于原空间和附加空间的直和的推广映射,由于连续可微函数在局部可以被导数所逼近,所以在局部是线性的,所以视为向量空间就没有太大的问题。我们可以看到,这类函数的各种性质都需要线性代数理论证明,因为他们其实是一致的。

这个记号其实就反映了直和分解的内容,将一个线性变换分解为两个部分,原空间和正交补空间。


非常熟悉的内容,线性方程的矩阵求解法。

隐函数定理说明了连续可微函数的局部性态和导数所成线性空间没有区别。

秩定理是和维数有关的,或者说矩阵的秩,算子的秩。反映了非退化部分的维数

这个定义就是关于零空间和值空间。比如维数定理,

射影就是不变子空间,也就是一个同构。

直和分解,一个是不变的部分,一个是归零的部分

其实就把不变子空间显明的给出了

看得有点迷糊,用了很多不必要的符号,简单来说,连续可微函数F有两部分,一个是保持自身,一个是退化为零。


讲的有些不清不楚的,零空间与任意数的交,还是这个数,虽然看起来好像变成了一个空间,但这个空间没有包含变化。就像等能量面一样,不论面上的点怎么移动,能量都是一个定值,所以,可以认为水平集就是等值超曲面。
这个定理本质上还是说明了连续可微函数在局部等同于函数导数对应的线性变换。
感觉清晰了不少,估计可以去看微分拓扑的内容了,连续可微函数是一个线性变换的逼近,而连续函数是多项式函数的逼近,由此可见差别还是非常大的。多项式可以具有很多高次项,相应的性质也非常的复杂。看来由连续函数空间到连续可微函数空间跳跃的太过了,而连续可微函数空间到光滑函数空间,差别又过小了。这可能就是广义导数和索伯列夫空间提出的根据,把这个跳跃描述的更加精细。
网友评论