赞
踩
从今天开始,笔者将会持续更新关于张量的相关知识和最新研究成果。我们这里所说的张量知识主要是关于张量低秩分解,张量补全等算法和应用。在如今神经网络大火的年代,张量补全等算法无疑为预测、去噪等问题提供了新的解决方法和思路。接下来,且听我娓娓道来。
友情提醒:默认读者拥有线性代数的基础。
目录
在本科阶段,我们接触到最多的数据结构就是矩阵与向量。一维的向量与二维的矩阵分别能表示数据的一种与两种信息。然而,现实世界里大多数数据都具有多重属性,例如一个人就有姓名、年龄、性别、民族等多种信息,因此单纯的向量或矩阵已无法描述数据的多重属性。
张量即是对向量和矩阵的一种高阶扩展。我们可以将向量看做一维张量,矩阵看做二维张量,当然,遇到的更多的是三维张量、四维张量等。从几何的角度来说,一维张量构成的就是一条线,二维张量是平面上的矩形,而三维张量是立方体,以此类推。
从另一个角度去理解,三维张量可以看做是多个矩阵堆叠而成,不过由于三维张量具有三个维度(表达三种属性),因此堆叠矩阵的方式也必然存在三种,即水平切片、侧向切片和正面切片,如下图:
张量的应用面很广,大多数的数据都可用张量表示,例如一张彩色图片就是一个三维张量,分别由像素矩阵和第三维的RGB颜色通道组成。因此,构成彩色图片的张量大小为N*N*3。
5. 张量秩:对矩阵算法到张量领域的迁移以及现有对张量算法的改进大多围绕着秩定义的修改进行。张量秩的定义目前主要有以下两种,多线性秩和管秩。
6. 张量核范数:定义为傅里叶变换后的张量正面切片的奇异值之和。它是张量multi-rank的
以上各概念将会在张量补全,张量主成分分析等算法中起着重要作用,在此仅做介绍。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。