赞
踩
说起线性代数,我们并不陌生,之前有过学习,老师讲的好,学生学得懂。但是我明白,那只是很粗浅的学习,若要深度学习,苦苦专研它,必定是会令人头疼的,但是线性代数有着无穷的魅力,值得我们去学习。
线性代数是机器学习的基础,它的研究对象是向量,向量空间(或称线性空间),线性变换和有限维的线性方程组。向量空间是现代数学的一个重要课题,因而,线性代数被广泛地应用于抽象代数和泛函分析中。又由于科学研究中的非线性模型通常可以被近似为线性模型,使得线性代数被广泛地应用于自然科学和社会科学中。
线性的概念:
所谓“线性”,指的就是如下的数学关系:
其中f叫线性算子或线性映射。我们不关心上面的x,y是实数还是函数,也不关心f是多项式还是微分,我们统一把他们都抽象成一个记号,或是一类矩阵。总之,一句话,线性代数研究的就是:满足线性关系
的线性算子f都有哪几类,以及他们分别都有什么性质。
线代历史:
关于线性代数的发展,最早在“鸡兔同笼”问题中体现,当时的线性问题是线性方程组的解法。后来在我国数学著作《九章算术·方程》章中,有了比较完整的概述。十七世纪出现了现代意义的线性代数。十八世纪末,线性代数的领域还只限于平面与空间。十九世纪上半叶才完成了到n维线性空间的过渡。18~19世纪期,行列式和矩阵产生,推动了线性代数的发展。之后,向量概念的引入,形成了向量空间的概念。紧接着,矩阵、线性映射的出现,逐步发展成为今天的线性代数。
为什么学现线性代数:
机器学习学者张志华教授曾经说过:“搞好机器学习,关键是数学而线性代数正是这基础中的基础了,线性代数可使矩阵操作快速而简单,特别是通过GPU进行计算。事实上,GPU的设计便是受启发自向量和线性代数。
机器学习中主要用到的知识:
1:标量,向量,矩阵和张量
标量:一个标量就是一个单独的数。用斜体表示标量,如:s∈R.
向量:一个向量是一列数,我们用粗体的小写名称表示向量。比如x,将向量x写成方括号包含的纵柱
矩阵:矩阵是二维数组,我们通常赋予矩阵粗体大写变量名称,比如A。如果一个矩阵高度m,宽度是n,那么说
一个矩阵可以表示如下:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。