赞
踩
这一篇博文是【 AI学习路线图】系列文章的其中一篇,点击查看目录:AI学习完整路线图
向量是既有大小又有反向的量,是指具有n个相互独立的性质(维度)的对象的表示,向量常使用字母加箭头的形式进行表示,也可以使用几何坐标来表示向量,比如→a=→OP=xi+yj+zk
线性是指变量与变量之间按比例、成直线的关系,在数学上可以理解为一阶导数为常数的函数;
非线性是指不成比例、没有直线关系,一阶导数不是常数的函数。
线性代数中的基本量指的是向量,基本关系是严格的线性关系;也就是可以简单的将线性代数理解为向量与向量之间的线性关系的映射。
矩阵是描述线性代数中线性关系的参数,即矩阵是一个线性变换,可以将一些向量转换为另一些向量。
初等代数中y=ax 表示的是x到y的一种映射关系,其中a 是描述这种关系的参数。
线性代数中,Y=AX 表示的是向量X 和 Y 的一种映射关系,其中A 是描述这种关系的参数。
不相关的向量的最大子式阶数。
计算多阶的方阵行列式,可以在左右模拟出来一个备份,来计算对角线,如下所示:
那么行列式
就是3个对角线的乘积和减去3个次对角线的乘积和。
如果方阵A的行列式的值等于0,那么方阵A叫做奇异矩阵,否则叫做非奇异矩阵。
非奇异矩阵⟺ 可逆矩阵:非奇异矩阵是可逆的,可逆的矩阵也是非奇异矩阵。
设A为m∗n 的矩阵,x 为n∗1 的列向量,则Ax 为m∗1 的列向量,记作→y=A⋅→x 。这里的→y 跟→x 是线性相关的。在机器学习里的线性回归中,会用到这个公式。
例如矩阵A为:
向量→x 为:
那么→y=A→x 为:
如果将A 看做多个样本,行a11、a12、a1n等看做各个特征,→x 是各个特征的权重系数,那么→y 就是一个样本各个特征的加权和。
对函数→y=A⋅→x 求导结果就是:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。