赞
踩
根据机器学习输入数据类型,机器学习可分为如下几类:
下面是常见的机器学习算法。
机器学习领域的术语也需要理解一下:
监督学习即数据有标签,方法可分为生成方法和判别方法。
两者有什么区别呢?
先来看一下PPT上的定义:
判别方法:直接学习判别函数或条件概率分布作为预测的模型
生成方法:从数据中学联合概率分布
看到概率、函数就蒙了,从目的的角度来看,判别方法只关心预测结果。而生成模型则关心信号产生的过程与方法。除此之外,生成方法为了得到想要的生成过程,对数据量的需求较大(当样本无穷大时,才能用部分去估计整体),判别方法则对数据要求不高。
线性回归的目标函数:最小化残差平方和的均值,求取的过程与最小二乘法相同。
SVM:找到一个超平面,尽可能多的将两类数据点分开
目前常用的核函数有多项式内核、高斯径向基函数内核RBF、Sigmoid内核。
Ada Boosting算法的思想可以看作如下:
先分解:将复杂的分类任务分成若干子任务
再合并:将若干个弱分类器组合起来,形成一个强分类器
损失函数:指数损失函数
其算法中的两个核心问题为:
Ada Boosting算法初始时每个训练样本权重相同,且合为1。
K均值聚类的流程如下:
缺点:
PCA是一种特征降维方法,在降维中将数据向方差最大方向投影。即投影结果方差最大,投影方向正交。
协方差和相关系数:
相关系数是将协方差规整到一定的取值范围得到的。
独立和不相关:
不相关是比独立要弱的概念,独立一定不相关,不相关不一定独立。
这题选D,首先B和C没有问题,纠结的地方在于每个样本的权重之和是否为1,每个弱分类器的权重之和是否为1。我们知道,初始时每个样本权重为1/N,在更新训练样本权重分布时,将其转化为了概率分布的形式,因此样本的权重累加和为1,但弱分类器权重之和并不一定为1,其权重只与其分类误差有关。
这题选A,首先A说的是每一维度间具有极大相关度。这里应该是每一维度间相关度最小,方差最大。B的确有说的太过绝对的问题。但是A错的更离谱
此题选A,后向传播时,已经有误差作为标签数据,因此为监督学习。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。