赞
踩
机器学习(ML)主要研究计算机系统对于特定任务的性能,逐步进行改善的算法和统计模型。
通过输入海量训练数据对模型进行训练,从而对输入的数据进行预测或分类。
分为
采用一组仅包含输入的数据,通过寻找数据中的内在结构来进行样本点的分组或聚类。
无监督学习算法不是响应反馈,而是识别数据中的共性特征;对于一个新数据,可以通过判断其中是否存在这种特征,来做出相应的反馈。
无监督学习的核心应用是密度估计和聚类分析。
监督学习:构建了包含输入和所需输出的一组数据的数学模型。这些数据称为训练数据,由一组训练样本组成。
监督学习主要包括分类和回归。
巧辨认(非科学):
连续:一串数字。
离散:英文、中文等非连续的数值。
监督学习实现步骤
模型评估
模型选择
【模型评估】
训练集:输入到模型中对模型进行训练的数据集合。
通俗理解,为了提高成绩,买的练习册进行刷题提升。那么“5+3”就是训练集。
测试集:模型训练完成后测试训练效果的数据集合。
在练习题上训练的再好,也需要模拟题检验一下是否真的掌握。故“高考|期末考”就是测试集。
作用:用来衡量模型预测误差的大小。
定义:选取模型f为决策函数,对于给定的输入参数X**,f(X)为预测结果,Y为真实结果**;f(X)和Y之间可能会有偏差,我们就用一个损失函数来度量预测偏差的程度,记作L(Y,f(X))。
损失函数是系数的函数
损失函数数值越小,模型就越好;
【分类】
L ( Y , f ( X ) ) = ( Y − f ( X ) ) 2 L(Y,f(X)) = (Y - f(X))^2 L(Y,f(X))=(Y−f(X))2
L ( Y , f ( X ) ) = ∣ Y − f ( X ) ∣ L(Y,f(X)) =|Y-f(X)| L(Y,f(X))=∣Y−f(X)∣
L ( Y − P ( Y ∣ X ) ) = − l o g P ( Y ∣ X ) L(Y-P(Y|X)) = -logP(Y|X) L(Y−P(Y∣X))=−logP(Y∣X)
【模型选择】
【欠拟合】模型没有很好捕捉到数据特征,特征集过小,导致模型不能很好拟合数据。
本质对数据的特征“学习”不够。
【过拟合】把训练数据学习的太彻底,以至于把噪声数据特征也学习到了。泛化能力太差。
数据集划分
训练集用于训练模型,测试集用户学习方法评估。
数据不充足时,可以重复利用数据——交叉验证(cross validation)
输出变量取有限个离散值,问题就成了分类问题。
分类问题包括学习和分类两个过程。学习过程中,根据已知的训练数据集利用学习方法学习一个分类器;分类过程中,利用已习得的分类器对新的输入实力进行分类
分类问题解决的学习方法:
k近邻、决策树、感知机、逻辑斯蒂回归、支撑向量机、朴素贝叶斯法、神经网络等。
用于连续问题
回归模型表示从输入变量到输出变量之间映射的函数
回归问题的学习等价于函数拟合。
回归学习的损失函数——平方损失函数。使用著名的最小二乘法解决
主要思想:选择位置参数,使得理论值与观测值之差的平方和达到最小。
f ( x i ) = w x i + b , 使 得 f ( x i ) ≈ y i f(x_i) = wx_i + b , 使得f(x_i)\approx y_i f(xi)=wxi+b,使得f(xi)≈yi
( w ∗ , b ∗ ) = a r g m i n ( w , b ) ∑ ( f ( x i ) ) − y i ) 2 = a r g m i n ( w , b ) ∑ ( y i − w x i − b ) 2 (w^*,b^*) = arg min _{(w,b)} \sum{(f(x_i))}-y_i )^2 \\ =arg min _{(w,b)}\sum{(y_i-wx_i}-b )^2 (w∗,b∗)=argmin(w,b)∑(f(xi))−yi)2=argmin(w,b)∑(yi−wxi−b)2
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。