赞
踩
Arthur Samuel:机器学习赋予计算机学习的能力,这种能力不是通过显式编程实现的。
Tom Mitshell:一个被称为可以学习的计算机程序是指,它可以针对某个任务T和某个性能指标P,从经验E中学习。这种学习的特点是,它在T上的被P衡量的性能,会随着经验E的增加而增加。
监督学习由人工采集数据并附带标签,输入计算机;强化学习的数据来源于计算机的行为及其结果,计算机根据收益函数对行为进行奖励或惩罚,逐渐强化自己的行为模式。
监督学习(按训练数据是否含有标签)
监督学习(按标签是连续还是离散)
在二维特征空间中,能否用一条直线将样本分成两个部分
一、解决线性可分问题
二、再将线性可分问题中的结论推广到线性不可分的情况
超平面标准:
将求解支持向量机的ω、b参数转化成凸优化问题。
最小化:
1
2
∣
∣
ω
2
∣
∣
\frac{1}{2}||ω^2||
21∣∣ω2∣∣
限制:非支持向量满足
∣
ω
T
X
i
+
b
>
1
∣
|ω^TX_i+b>1|
∣ωTXi+b>1∣
放松限制条件,引入松弛变量。
限制条件改为
y
i
(
ω
T
X
i
+
b
)
≥
1
−
δ
i
y_i(ω^TX_i+b) \geq 1-δ_i
yi(ωTXi+b)≥1−δi
改造后的支持向量机优化版本:
最小化:
1
2
∣
∣
ω
2
∣
∣
+
C
∑
i
=
1
N
δ
i
\frac{1}{2}||ω^2||+C\sum\limits ^N_{i=1}δ_i
21∣∣ω2∣∣+Ci=1∑Nδi 或
1
2
∣
∣
ω
2
∣
∣
+
C
∑
i
=
1
N
δ
i
2
\frac{1}{2}||ω^2||+C\sum\limits ^N_{i=1}δ_i^2
21∣∣ω2∣∣+Ci=1∑Nδi2
限制条件:
C为超参数(人为设定的参数)。
还不是能解决所有问题,要扩大可选函数的范围。
φ ( X ) φ(X) φ(X) 把 X X X 从低维映射到高维
K
(
X
1
,
X
2
)
=
φ
(
X
1
)
T
φ
(
X
2
)
K(X_1,X_2)=φ(X_1)^Tφ(X_2)
K(X1,X2)=φ(X1)Tφ(X2)
核函数
K
K
K 与映射
φ
φ
φ 是一一对应的。
条件:
K
K
K 满足交换性和半正定性。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。