赞
踩
目录
1、Local Outlier Factor(局部异常因子)
2、Principal Component Analysis(PCA,主成分分析)
2、LDA(Linear Discriminant Analysis,线性判别分析)
数据往往是杂乱无章的,不能直接进行分析,需要预处理才能进行后续的工作
金融数据(电子银行)、手机、GPS、传统的调查问卷、超市购物、健康管理(手环等)......
数据来源不同,格式也会有非常大的不同
真实的数据是非常 dirty 的,是数据挖掘中最大的挑战
需要借助领域知识,是数据挖掘工作的基础性工作
(1)为什么会缺失?
(2)缺失的类型
(3)怎样处理缺失数据
具体问题具体分析
More art than science:与其说这个领域的工作是科学研究,不如说是艺术。因为没有严格的标准化流程,更多的是经验形成的结果
(4)例子
两堆数据(男人、女人),两个属性(身高X、体重Y)
现在来了一个新的样本,只有属性X(只知道身高,不知道体重),如何推测Y(体重)?
离群点(也可称之为噪点)对有些算法的影响是非常大的,如最小二乘、聚类
与离群点(Outlier)是两个概念,不能混为一谈
离群与否是一个相对的概念,关于离群点的判定,需要考虑相对距离因素
(1)引入distance
:O点的k近邻,如k=3,找3个离O点最近的点,如果第3个点和第4个点是一样远的,那么都算在里面,即实际的点可能>3个。把第3个远的点画一个虚线的圆
:A和B两点之间的欧氏距离
(2)引入lrd
分母:A有多少个近邻
分子:A到每个k近邻的距离之和
若一个点离它的近邻都非常近,则分子会非常小(其实是在算平均距离),整个又分之一,则:若一个点与它周围的点都特别地紧密,那么分之一后就会非常大,即 lrd(A) 特别大。即: lrd(A) 值越大,A与自己的近邻越紧密
(3) 真正判断离群点的方式(引入LOF):
我算算我自己的 lrd 值(我离我自己的近邻有多远),再看看我的近邻到它们的近邻有多远,做一个比值。若 lrd(B) >> lrd(A),即我(A)的近邻(B)和它们的近邻的距离都特别近,而我(A)与我的近邻(B)又相对较远,则我(A)比较不合群
综上:LOF的值越大,是离群点的可能性越大
当给定一组样本时,对每一个样本都可以计算这样一个相对距离的概念
(1)不同数据集中可能包含同一个人的信息,但格式可能不同,例如:
Q:CaseA:两个人名字不同,身份证号相同 CaseB:两个人同名同姓,身份证号不同
谁为重复数据的可能性大? A
分析:身份证号重复的概率极低(理论上为0),改名和重名重姓的情况在实际中并不罕见
(2) 如何找出其中冗余或一样的信息? ——滑动窗口
对数据库中的每一条记录生成一个键值,根据key去排序
基本原理:如果两个样本非常可能是一样的,那么生成的key要一样或差一点点,这样排完序才能保证这些记录都放在一个滑动窗口里
key如何生成? ——不容易记错或听错的位数作为key
Q:在记录手机号码时,相对而言前 3 位不容易记错。
例子:
先看两个人的 last name(姓),两个人的姓如果一模一样,两个人的 first name(名)差一点点,他们的地址又一样,则认为这两个人对应着同一个人
为什么先比较姓? ——这与文化背景有关。外国人中,姓更容易区分,名反而没有多少区分度
Q:在记录英语国家人名时,姓容易写错
分析:姓氏种类繁多,容易因为不熟悉写错
(1)RGB三种颜色,如何编码?
若编码为012,暗含了绿色与红色的距离<蓝色与红色的距离(在空间中施加了距离度量),这是没有道理的
(2)水果有三种颜色、不同的大小,○和x分别代表一种水果,现在要把二者分开
分界面为两条类似抛物线的曲线
数据不动,只调整编码方式(绿色和蓝色对调一下),此时分界面为两条直线,简化了问题
这个例子说明:不同的编码会造成问题结构的不同,或数据在空间的分布不同,可能使问题简化或复杂
(3)RGB到底如何编码?
四种颜色,拆成四位,任何两种颜色的小球之间的距离都是一样的(等间距空间)
即拆成维度更高的表达形式,显然只适用于少量的颜色,否则维度无法处理
(4)在对标称型数据(如颜色、职业等)进行编码时:
为了减少数据,还有很多种方法,如 Aggregation(根据需要将数据进行聚集,不需要知道最底层的数据,可以大大减少数据量,数据也可以更加平稳),举 2 个例子:
100个人中只有1个人生病,分类器:无论谁来都判定为健康,准确率为99%,但它是无意义的
对于极度不平衡的二分类数据集,应特别注意少数类样本的准确率
整体准确率的概念不适用于不平衡数据集(两类数据集差别特别大),应采用新的度量模式:
(1)G-mean:取值0~1之间,要单独看正类准确率和负类准确率,但要G-mean值高,必须在两类上都分的对才可以
(2)F-measure:在信息检索中常用
数据集中红色远远多于蓝色,怎么办?
SMOTE的工作原理是:对少数类样本通过插值进行上采样
只有最外面这层点(边缘点)最有价值,如何找出边缘点?
在计算机中,数据本身是无单位的,如身高可以是1.7、170、1700等,需要进行标准化
几种标准化的操作:
(1)把原始数据映射到 [0,1] 区间
适用于有明确上下界的数据
如:做了一个收入的调研,人群中最低收入12000,最高收入98000,这是一个区间。想把这个区间当中所有的收入都映射到 0和1 之间,如何映射?
(2)Z-score:计算点偏离均值(μ)多少个 standard deviation(标准方差σ)
高斯分布偏离 3个 standard deviation 以外的点就已经很少了,可以看做离群点
数据无明确上下界,可以无限延伸,如高斯
(1)一般性描述(统计信息):
(2)相关性:
皮尔逊相关系数
皮尔逊卡方检验
例子:一个人喜不喜欢下国际象棋,与他喜不喜欢科技小说有无关系
可视化不仅可以很好地展示结果,也可以帮助人们思考数据中蕴含的模式、要做怎样的数据挖掘。数据可视化工作贯穿数据挖掘工作全过程,从最初数据简单的分析处理的可视化,到数据挖掘过程的可视化,到结果的可视化,每一步都发挥着重要的作用
(1)一维:MATLAB 或 Excel
(2)二维:MATLAB
汽车的排量和汽车0-60英里的加速时间之间的关系
(3)三维:MATLAB
z = f(x,y)
(4)高维:MATLAB
将高维数据以某种形式做转换或映射
(1)Citespace:可视化的是文本(文献可视化),研究一个领域研究热点的变化、最近都在研究什么问题、过去十年中哪些文章经常被人引用等等
(2)Gephi:把各个元素之间的相互关系用网络图展示,例如社交网络
现实生活中可能有很多的属性,但一些属性可能是不相关的,或重复的(如 Address 和 Location),而且属性太多会造成空间维度太大、问题难度太大,因此需要特征选择(Feature Selection)挑出最相关的属性,降低问题难度
Q:进行属性选择的原因是:属性可能存在冗余、属性可能存在噪声、降低问题复杂度
(1)属性的区分度:理论上,一个属性最好能够100%区分两类目标,但实际上很难做到,都会存在 overlapping 的区域
(2)离散型:
知道一个属性:这个人抽烟还是不抽烟
知道属性之后,对于这个人是男人还是女人的判断,会更加有自信
如何量化属性的区分度? ——熵
衡量系统的不确定性,即:关于一个变量的值取多少,有多大的 confidence
0.2864 < 0.7219 说明:在烟民中,性别的分布更加不平衡,即如果知道一个人抽烟,对这个人是男还是女的判断会更加准确
原来的不确定性与现在的不确定性的差值:信息增益(Information Gain)
Q:假设某数据集的原始熵值为0.7,已知某属性的信息增益为0.2,那么利用该属性进行划分后数据集的熵值为0.5
有100个属性,只想用5个,如何找到最优的5个属性的属性组?
(1)排列组合(Exhaustive Search):组合爆炸
(2)分支定界(Branch and Bound)
例:有5个属性12345,想找到最优的两元组
剪枝,简化搜索空间,可以找到最优解(不是近似解或启发式的解)
(3)近似解
以下方法都不能保证全局最优,都是一种简单的贪婪算法
Q:以下方法中可以确保获得最优属性子集的是
与 Feature Selection(特征选择)的不同之处:
平面图中的老鹰能够被人们识别的原因是:观察角度合适
3维映射到2维,丢失了很多信息,但是关键的属性都被保留下来了
不同映射方法信息损失不同,有效信息的保留也不同
(1)2维例子:
假设数据是高斯分布的
情况1:长短轴与坐标轴平行
沿着某一属性分布地比较开,其 Variance 比较大,就说明这个属性所体现的信息量比较大,即这个属性越重要(Variance=Information)
在PCA变换中,应尽量把数据向数据散布大的方向投影
情况2:X1与X2有协方差存在
总结:PCA就是在做一个坐标的旋转,使得旋转以后,在新的坐标轴下,去掉数据之间的correlation,需要的旋转矩阵P就是Q的一个转置
另一个角度推导PCA:
基本思想:想把高维空间中的点投影到线上,若所有的点都能排到一根线上,相当于降维
如何计算? —— 拉格朗日乘数法(适用于带条件的约束问题)
例:
用拉格朗日乘数法求解上述问题:
PCA做的就是把原始数据投影到特征向量(对应特征值最大的那些特征向量)上
例1:
例2:
Q:PCA变换中不包含以下哪一种操作?
Q:假设样本数大于维数,利用PCA技术,可以把N维数据降为1~N-1维
例:分类问题,两种颜色代表不同的类,每一类都是高斯分布
若做PCA,投影方向很可能是一三方向(长轴),但这样投影,两种颜色的数据会全部融合在一起,完全分不开。而沿二四方向(短轴)投影是可以分开的,这是为什么?
原因:做PCA时是不考虑 label 的(即 class information:样本是属于A类还是B类),它是 Unsupervised Learning。因此,如果是有标签的数据,要用线性判别分析(Linear Discriminant Analysis,LDA)
Q:如果将PCA应用于带标签的分类数据,效果视情况而定
Q:LDA与PCA最本质的区别是( )
能够降到的维数不同 计算效率不同 降维的目标不同
Q:关于 LDA 和 PCA 投影方向描述正确的是( )
必然相同 必然不同 LDA总是优于PCA 世事难料
基本思路:降维,且要保留类的区分信息
,其中 x 为高维空间中分布的点,w 为投影方向(向量),y 为一维空间中的点,且尽可能分开
(1)不同 class 之间(between)距离尽可能远,同一 class 里(within)的数据尽可能紧凑
(2)Fisher准则
LDA目标:找投影方向使 J 最大化
以上推导都是基于两分类问题
LDA 容易被拓展到更多类的问题
假设 C 分类问题:
其中: 为所有样本的均值, 为第 类中样本的个数
LDA 可投影到 C-1 维,即 C-1 个特征向量的特征值不为0
PCA 算出的每个投影方向都是正交的,而 LDA 不一定
(1)类间散布矩阵 矩阵的 rank 最大就是 C-1,只有 C-1 个特征值不为 0 的特征向量,所以它不能像 PCA 一样随意降到几维
(2)类内散布矩阵 可能是奇异的,即它的逆是不存在的。当样本个数低于维度时,它的逆不存在(此时可能需要先用 PCA 降维,然后再用 LDA)
(3)LDA在类的均值(中心点)重合的情况下效果不佳
Q:当样本个数小于数据维数时,LDA 不能正常工作的原因是( )
类间散布矩阵 不满秩
类内散布矩阵 不满秩
计算量过高
Fisher准则无意义
Q:当类中心重合的时候,LDA 不能正常工作的原因是( )
Fisher准则函数分母为0
类内散布矩阵 奇异
Fisher准则函数恒等于0
类间散布矩阵 不满秩
Q:对于二分类问题,LDA只能将原始数据降到一维的原因是( )
类间散布矩阵 秩为1
类内散布矩阵 秩为1
原始数据维度过高
原始数据维度过低
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。