美文网首页
线性代数学习总结-向量

线性代数学习总结-向量

作者: ZerLon51 | 来源:发表于2019-12-28 15:46 被阅读0次

起源

线性代数的研究源自对于二维三维空间下向量的研究。

向量

这里只探究在数学中的表示,每个维度用一个分量表示,用列表示如下:

\begin{bmatrix}x_1\\x_2\\...\\x_n\end{bmatrix}

乘法于加法是线性组合最重要的两个概念

向量乘因子cV = \begin{bmatrix}cx_1\\cx_2\\...\\cx_n\end{bmatrix}
等于乘以各分量

向量相加 V + W = \begin{bmatrix}v_1\\v_2\\...\\v_n\end{bmatrix} + \begin{bmatrix}w_1\\w_2\\...\\w_n\end{bmatrix} = \begin{bmatrix}v_1 + w_1\\v_2 + w_2\\...\\v_n + w_n\end{bmatrix}等于各分量相加

将这两个操作组合在一起就是线性组合

cV + dW = c\begin{bmatrix}v_1\\v_2\\...\\v_n\end{bmatrix} + d\begin{bmatrix}w_1\\w_2\\...\\w_n\end{bmatrix} = \begin{bmatrix}cv_1 + dw_1\\cv_2 + dw_2\\...\\cv_n + dw_n\end{bmatrix}

对于二维空间而言,如果v和w不共线,则将填充整个二维空间。
三维空间的话,则未必了。如下所示

p1
可能共面、共线,其线性组合会产生可能填充直线、平面或者整个空间的效果。

点乘v \cdot\ w = \begin{bmatrix}v_1\\v_2\\...\\v_n\end{bmatrix} \cdot\ \begin{bmatrix}w_1\\w_2\\...\\w_n\end{bmatrix} = v_1w_1 + v_2w_2 + ... + v_nw_n = \sum_{k=1}^{n}v_kw_k
即各元素相乘相加之和

长度length = \left||v\right||=\sqrt{v\cdot v}即各元素点乘开平方

两个不同向量的点乘等于二者夹角的cos

\frac{v\cdot w}{\left||v\right||\left||w\right||}=cos\theta

证明嘛如下


p2
矩阵

线性组合cu + dw + ev改写为\begin{bmatrix}u&w&v\end{bmatrix}\begin{bmatrix}c\\d\\e\end{bmatrix}的形式,向量u\quad v\quad w则变为矩阵A的列。系数c\quad d\quad e变为向量x的元素。

Ax = b

A就是矩阵了。

矩阵可逆

首先明确下什么是可逆矩阵,很简单,如下

对于\qquad Ax = b\qquad 有 \qquad Sb=x

A是可逆矩阵。也就是对于Ax的线性组合而言,存在另外一个矩阵S的线性组合Sb,反向求出x

那么什么条件下矩阵是可逆的呢?

牵扯到前面的空间的概念,从三维空间来讲,如果各列之间Independent,则矩阵是可逆的,反之则不可逆。矩阵的两列或者N列存在组合关系,例如

col_i + col_j = col_w

说明col_w是无用的列,Ax=0存在很多解。反之,只有唯一解。

相关文章

  • 线性代数学习总结-向量

    起源 线性代数的研究源自对于二维三维空间下向量的研究。 向量 这里只探究在数学中的表示,每个维度用一个分量表示,用...

  • 线性代数的本质与几何意义 01. 向量是什么?(3blue1br

    向量是线性代数最基础、最基本的概念之一,要深入理解线性代数的本质,首先就要搞清楚向量到底是什么? 向量之所以让人迷...

  • 线性代数向量的最简单的理解

    线性代数4大核心概念 向量 矩阵 空间 维度学习这门学科的核心算法之前,先理解核心概念。 标量&向量 标量:一个数...

  • 理解线性代数核心概念:向量/矩阵/空间/维度

    线性代数4大核心概念 向量 矩阵 空间 维度学习这门学科的核心算法之前,先理解核心概念。 标量&向量 标量:一个数...

  • 线性代数的本质(笔记1)

    本文来自blibli (线性代数的本质) 1. 向量究竟是什么 1.1向量(Vector): 物理领域,向量是空间...

  • Unity 向量

    向量:在线性代数中向量指具有大小(Magnitude)和方向(Direction)的量。 Shader Graph...

  • 深度学习中的线性代数

    主要摘录一些深度学习过程中所需的线性代数概念。 标量(scalar)、向量(vector)、矩阵(matrix)、...

  • 02R语言基础入门

    向量赋值 筛选 合并向量 循环补齐 关于向量的几个函数 矩阵本质上来说就是多维向量创建 筛选矩阵 线性代数 矩阵相...

  • 线性代数导论

    一、学习结构 线性代数基本理论部分:行列式 矩阵 n维向量 线性代数应用部分:线性方程组 相似对角形 二次型 ...

  • 矩阵乘法的两种角度理解

    深度学习中的线性代数2:矩阵乘法-刘博的文章-知乎中提到: 当我们把A看做由行向量组成,B由列向量组成,这种方式是...

网友评论

      本文标题:线性代数学习总结-向量

      本文链接:https://www.haomeiwen.com/subject/ofdsoctx.html