线性代数与基本运算
标量,向量,矩阵与张量
我们可以简单的把后者视为前者的推广
哈达玛积
假设矩阵
我们把两个矩阵按元素相乘称之为Hadamard product,表示为
点积
对于n维向量x与y,其点积表示为
点积是对于向量的相同位置的按元素乘积的和:
矩阵-向量积
对于一个n维向量x对矩阵A做矩阵向量积:
因此我们可以把矩阵向量积视为一种将
矩阵-矩阵乘法
设A为
我们可以将矩阵-矩阵乘法看作简单地执行
线性代数与范数基础
在深度学习中,我们经常试图解决优化问题:
最大化分配给观测数据的概率; 最小化预测和真实观测之间的距离。
用向量表示物品(如单词、产品或新闻文章),以便最小化相似项目之间的距离,最大化不同项目之间的距离。
目标,或许是深度学习算法最重要的组成部分(除了数据),通常被表达为范数
-- 动手学习深度学习
定义与性质
向量的范数(Norm)是一个函数,用于度量向量空间中向量的“长度”或“大小”
一般范数需要满足一些基本性质[2]:
- 非负
- 绝对值缩放
- 三角不等式
范数有很多形式,在深度学习中我们一般使用L2范数的平方与L1范数进行衡量"大小"
L1范数
相对于L2受异常值的影响较小
曼哈顿范数,向量各分量绝对值之和
L2范数
欧几里得范数,向量各分量平方和的平方根,即常规意义上的向量长度
Lp范数
L1和L2都是Lp的特例
对于
其中
无穷范数
切比雪夫范数,向量各分量绝对值的最大值
Frobenius范数
类似L2范数,不过定义在矩阵意义上