线性代数:
线性代数本质把具体的事物抽象为数字对象,并描述为动态和静态的特性。
标量单个值,向量-多个值,矩阵-把多个向量规则化(相同的列或相同的行),张量-高阶的矩阵
范数-衡量单个向量的大小或尺度,内积-两个向量的相似度,值越大,相似度越高,如果为0在二维空间相互垂直,在多维空间被成为正交,说明相互独立,互不影响,向量有时表示为某些对象或行为特征,范数和内积表示用数字模型处理这些,进尔提取这些对象或行为特征的隐含关系。
线性空间:相同维数的向量(有限、无限),且定义了加减数剩等结构运算,这样的集合叫线性空间。
内联空间:内联运算的线性空间则称为内联空间,在多维空间里,一个点是向量,向量就是一个点。
正交积:在内联空间里,一组两两正交向量构成的空间叫正交基,如果我数长度为1,那就是标准正交基。正交基的作用是确定内联空间的具体位置。
线性空间是可以承载变化,这个变化可分成两种,第一种向量本身发生变化,可以用代表变化的矩阵乘以代表变化的向量;第二种是代表座标的正交基发生变化,也就是观察的角度不同,所谓横岭都成峰,这时矩阵的作用对正交基进行变化。
矩阵的重要参数,特征值和特征向量,如果把矩阵变化看作一个跑步的人,特征值是跑步速度,特征向量是方向,它有很多不同的分身以不同的速度和向不同方向奔跑,所有的运动叠加在一起才是矩阵的效果Ax=^x,求解矩阵的特征值和特征向量的过程叫特征值分解,能进行特征值分解的矩阵必定是n维的矩阵,把特征值分解的算法推广到所有矩阵上就是更加通用的奇异值分解。
概率:
古典(频率)概率,独立不断重复的随机试验中单个结果出现的极限的可能性,。随机事件A概率等于A的基本事件数k除以所有的基本事件n,P(A)=k/n,例如抛硬币猜正反面概率
条件概率,假设事A和事B互相影响,事件A在已知事件B发生条件下的概率,等于事件A和B共同发的概率除以事件B发生的概率,P(A|B)=P(AB)/P(B),如果A和B共同发生的概率等同于A的概率乘以B的概率,即P(AB)=P(A)P(B),那么A和B就没什么关系,不会相互影响,即P(A|B)=P(A)
全概率(A和B共同作用下的概率),基于条件概率,将复杂事件的概率求解转化成在不同情况下简单事件的概率求和,每次简单事件(A和B共同作用)的概率P(A)=∑P(A|Bi)P(Bi),i=1,举例,用高射炮向敌机发射了三发炮弹,每发炮弹相互独立,打中的概率为0.3,如果敌机中1弹,坠毁的概率为0.2,如果中2弹,敌机坠毁的概率为0.6,求中3弹,敌机坠毁的概率,假设A为坠毁,B为打中,那么中3弹坠机概率为0.20.3+0.60.3=0.24
贝叶斯概率,逆全概率,事件结果已确定的条件下P(A),推断出各种假设发生的可能性P(Bi|A),从上面例子理解,假设要使敌机坠毁,射三弹的成功概率是多少?
机器学习
人工神经网络
深度学习
网友评论