美文网首页
AI学习笔记之数学基础一(线性代数)

AI学习笔记之数学基础一(线性代数)

作者: wenju_song | 来源:发表于2019-05-07 21:10 被阅读0次

    线性代数是人工智能领域的基础,本科期间学完就还给老师了,考研的时候重视的是计算,很多概念似是而非,不知道有啥用,现在又拾起。又有新的领悟。

    线性代数的意义

    • 线性代数提供了⼀种看待世界的抽象视角:万事万物都可以被抽象成某些特征的组合,并在由预置规则定义的框架之下以静态和动态的方式加以观察。
    • 是现代数学和以现代数学作为主要分析方法的众多学科的基础。从量子力学到图像处理都离不开向量和矩阵的使用。
    • 线性代数是用虚拟数字世界表示真实物理世界的工具。
    • 线性代数的本质在于将具体事物抽象为数学对象,并描述其静态和动态的特性;

    基本概念

    • 集合:元素常常有共性
    • 标量(scalar):一个标量 a 可以是整数、实数或复数。零维数组。
    • 向量(vector):多个标量 a1,a2,⋯,an 按一定顺序组成一个序列。一维数组

    向量的实质是 n 维线性空间中的静止点;

    • 矩阵(matrix):将向量的所有标量都替换成相同规格的向量。二维数组

    • 张量(tensor):矩阵中的每个标量元素再替换为向量的话,张量是高阶的矩阵。三维等高维数组。

    • 范数(norm):对单个向量大小的度量,描述的是向量自身的性质,其作用是将向量映射为一个非负的数值。

      通用的 L ^ p 范数定义如下:
    • 对⼀个给定向量,L^1 范数计算的是向量所有元素绝对值的和,L^2 范数计算的是通常意义上的向量长度,L^∞ 范数计算的则是向量中最大元素的取值。

    • 内积(inner product):计算两个向量之间的关系。

      两个相同维数向量内积的表达式为
    • 对应元素乘积的求和。

    • 内积能够表示两个向量之间的相对位置,即向量之间的夹角。一种特殊的情况是内积为 0,即(x,y)=0.在二维空间上,这意味着两个向量的夹角为 90 度,即相互垂直。而在高维空间上,这种关系被称为正交(orthogonality)。如果两个向量正交,说明他们线性无关,相互独立,互不影响。

    • 线性空间(linear space):一个集合的元素具有相同维数的向量(可以是有限个或无限个), 并且定义了加法和数乘等结构化的运算.
      在线性空间中,任意一个向量代表的都是 n 维空间中的一个点;反过来, 空间中的任意点也都可以唯一地用一个向量表示

    • 内积空间(inner product space):定义了内积运算的线性空间.

    • 正交基(orthogonal basis):在内积空间中,一组两两正交的向量构成这个空间的正交基.
      正交基的作用就是给内积空间定义出经纬度。⼀旦描述内积空间的正交基确定了,向量和点之间的对应关系也就随之确定。

    • 描述内积空间的正交基并不唯一。对二维空间来说,平面直角坐标系和极坐标系就对应了两组不同的正交基,也代表了两种实用的描述方式.

    • 标准正交基(orthonormal basis):正交基中基向量的 L^2范数都是单位长度 1

    • 线性变换(linear transformation):线性变换描述了向量或者作为参考系的坐标系的变化,可以用矩阵表示。
      线性空间的一个重要特征是能够承载变化。当作为参考系的标准正交基确定后,空间中的点就可以用向量表示。当这个点从一个位置移动到另一个位置时,描述它的向量也会发生改变。
      在线性空间中,变化的实现有两种方式:一是点本身的变化,二是参考系的变化。
      在第一种方式中,使某个点发生变化的方法是用代表变化的矩阵乘以代表对象的向量。可是反过来,如果保持点不变,而是换一种观察的角度,得到的也将是不同的结果。

    • 矩阵的作用就是对正交基进行变换。因此,对于矩阵和向量的相乘,就存在不同的解读方式:Ax = y。

    • 向量 x 经过矩阵 A 所描述的变换,变成了向量 y;也可以理解为一个对象在坐标系 A 的度量下得到的结果为向量 x,在标准坐标系 I(单位矩阵:主对角线元素为 1,其余元素为 0)的度量下得到的结果为向量 y。

    • 这表示矩阵不仅能够描述变化,也可以描述参考系本身。

    • 表达式 Ax 就相当于对向量 x 做了一个环境声明,用于度量它的参考系是 A。如果想用其他的参考系做度量的话,就要重新声明。而对坐标系施加变换的方法,就是让表示原始坐标系的矩阵与表示变换的矩阵相乘。

    • 特征值(eigenvalue):表示了变化的速度

    • 特征向量(eigenvector):表示变化的方向

      • Ax = λx
      • 其效果通常是对原始向量同时施加方向变化和尺度变化。
      • 有些特殊的向量,矩阵的作用只有尺度变化而没有方向变化,也就是只有伸缩的效果而没有旋转的效果。对于给定的矩阵来说,这类特殊的向量就是矩阵的特征向量,特征向量的尺度变化系数就是特征值。
      • 特征值分解:求解给定矩阵的特征值和特征向量的过程。但能够进行特征值分解的矩阵必须是 n 维方阵。
      • 奇异值分解:将特征值分解算法推广到所有矩阵之上。

    以上就是对线性代数的总结

    相关文章

      网友评论

          本文标题:AI学习笔记之数学基础一(线性代数)

          本文链接:https://www.haomeiwen.com/subject/udnenqtx.html