选用教材:DEEP LEARNING 深度学习 (花书)
花书在开始学习机器学习之前,需要一定的数学知识,花书的第二、三章比较详细地介绍了机器学习中所必须的线性代数和概率论与信息论的知识,第四章讲了有关数值计算的问题。本人在此做简单总结,供自己学习和入门选手参考。
1、线性代数:
标量(scalar):单独的一个数,如等
向量(vector):一组数组成的有序序列,可以用于表示维空间中一个点的坐标,在计算机中可以使用数组表示向量,如
矩阵(matrix):由一组等长的向量组成的有序序列的,在计算机中可以用二维数组表示,如
张量(tensor):超过2维的数组
可见,后三个概念均是由前一个概念推广而来,向量由标量组成,矩阵由向量组成,张量由矩阵组成。前一个可以看作后一个的特例。只要讨论矩阵之间的运算,其他概念的运算则与之相似。
矩阵加法:
只有两个形状相同的矩阵才可以相加,法则为对应位置元素相加
矩阵乘法:
只有前一个矩阵的列数与后一个矩阵的行数相同才能乘
满足交换律和分配律:
向量的范数:
时,就是通常向量的模,向量的欧式长度,称为欧几里得范数
时,称为最大范数(max norm),其值为向量中最大的值,推导过程如下:
左右两边的极限都是,根据夹逼准则得证
单位向量:欧几里得范数为1的向量
正交矩阵:如果一个矩阵与它的转置相乘为单位矩阵,则称该矩阵为正交矩阵,即满足:
特征向量与特征值:如果方阵和向量满足:
称是的特征向量,是对应的特征值
假如该矩阵有两个线性无关的特征向量,则有:
这个结论很容易推广到n维的向量上
以上过程称为矩阵的特征分解
不是所有矩阵都有特征分解,对于实对称矩阵一定有:
Q由A特征向量组成(实对称矩阵一定存在),则与上面的一样
网友评论