美文网首页
李沐-动手学深度学习(三)线性代数

李沐-动手学深度学习(三)线性代数

作者: minlover | 来源:发表于2022-04-14 13:32 被阅读0次

标量的长度就是其绝对值。

向量:

矩阵:

对于矩阵,一般用F范数(因为矩阵范数算起来比较麻烦)

一个矩阵是正定的,那个这个矩阵乘以任何一个列向量和一个行向量,一定大于等于0。

置换矩阵,P_ij=1,当且仅当j是i的一个置换

特征向量是不被矩阵改变方向的向量(绿色的方向就不会被改变)

不是每个矩阵都有特征向量

【编程部分】

给定具有相同形状的任意两个张量,任何按元素二元运算的结果都将是相同形状的张量。

两个矩阵的按元素乘法称为哈达玛积(Hadamard product)(数学符号⊙)。

非降维求和:

sum_A= A.sum(axis=1,keepdims=True)

A/sum_A

矩阵乘法  :

向量的点积(Dot Product):按元素乘然后求和

矩阵-向量积(matrix-vector product)

矩阵-向量积(matrix-vector product)


范数

L2范数是向量元素平方和的平方根

在深度学习中,更经常地使用L2范数的平方。 但也经常遇到L1范数,它表示为向量元素的绝对值之和:

L2范数和L1范数都是更一般的Lp范数的特例:

矩阵的𝐗∈ℝ𝑚×𝑛F范数(Frobenius norm)是矩阵元素平方和的平方根(类似L2范数):


课后:

# 对于任意形状的张量X,len(X)是否总是对应于X特定轴的长度?这个轴是什么?

#回答:是的,总是第一维(最外层的长度)

Y= torch.arange(20*3).reshape(5,2,3,2)

print(len(Y))# 5


问答

1、torch区分行向量和列向量吗:

1维张量是行向量,列向量是一个矩阵。

可以用二维矩阵来区分,行向量就是行数为1;列数是一个变化的值,列向量是列数为1,行数是变化的值

2、copy和clone的区别(关于内存):

copy不一定复制内存,看深层还是浅层copy。

clone一定会复制内存。

相关文章

  • 2022-02-15

    《动手学深度学习》环境搭建教程指南—windows10系统 本文在李沐博士的《动手学深度学习》 — 动手学深度学习...

  • 李沐-动手学深度学习(三)线性代数

    标量的长度就是其绝对值。 向量: 矩阵: 对于矩阵,一般用F范数(因为矩阵范数算起来比较麻烦) 一个矩阵是正定的,...

  • 线性回归的实现

    选自 李沐 《动手学深度学习》 第三章。 3.3 线性回归的简洁实现 随着深度学习框架的发展,开发深度学习应用变得...

  • Dropout

    李沐 《动手学深度学习》 第三章 3.13 丢弃法 除了前一节介绍的权重衰减以外,深度学习模型常常使用丢弃法(dr...

  • 机器翻译学习总结

    1.李沐《动手学深度学习》pytorch版-机器翻译https://github.com/ShusenTang/D...

  • 动手学深度学习(一)——线性回归(gluon)

    文章作者:Tyan博客:noahsnail.com | CSDN | 简书 注:本文为李沐大神的《动手学深度学习》...

  • 计算机视觉中的深度学习

    教材选用《动手学深度学习》,李沐等著; 图像增⼴ 图像增⼴(image augmentation)技术通过对训练图...

  • 图像分类

    李沐 《动手学深度学习》 第三章 读取数据 定义和初始化模型 初始化参数 也可以通过 name paramter ...

  • 卷积神经网络知识学习笔记

    教材选用《动手学深度学习》,李沐等著; 卷积神经网络(CNN)是含有卷积层(convolutional layer...

  • 《动手学深度学习》_李沐学习资料

    从上学识字开始,我们每个人都在不断学习,尝试着阅读不同的书目。 但是,很多人读了很多年的书,却不知道读书的好处...

网友评论

      本文标题:李沐-动手学深度学习(三)线性代数

      本文链接:https://www.haomeiwen.com/subject/ceajsrtx.html