当前位置:   article > 正文

机器学习-机器学习试题(一)_svm 中的核技巧(kernal trick)的作用包括以下哪项? a. 特征升维b.特征降维c.防

svm 中的核技巧(kernal trick)的作用包括以下哪项? a. 特征升维b.特征降维c.防止

前言

在网上找的一些试题及延伸的一些问题,以选择题为主,主要是关于基础理论知识,同时给出自己联想到的一些问题。当然基础问题应当包含算法本身的过程和某些推导过程。比如:LR、SVM的推导。

试题

试题1: 已知坐标轴中两点A(2,2)B(1,2),求这两点的曼哈顿距离(L1距离)。

 答案:7 。向量AB(-3,4),L1 是向量中非零元素的绝对值和。

问题延伸:机器学习算法中哪些应用了L1,哪些应用了L2.

参考链接正则化技术


试题2SVM中的核技巧(Kernal trick)的作用包括以下哪项?

A. 特征升维
B. 特征降维
C. 防止过拟合

答案:C 

核技巧使用核函数将样本从原特征空间映射到更高维的空间,使得样本在更高维的空间中线性可分。

问题延伸:SVM的核函数本质及推导过程。


试题3: 在数据预处理阶段,我们常常对数值特征进行归一化或标准化(standardization, normalization)处理。这种处理方式理论上不会对下列哪个模型产生很大影响?

 A. k-Means
 B. k-NN
 C. 决策树

答案:C

k-Means和k-NN都需要使用距离。而决策树对于数值特征,只在乎其大小排序,而非绝对大小。不管是标准化或者归一化,都不会影响数值之间的相对大小。关于决策树如何对数值特征进行划分

问题延伸:机器学习那些算法是进行归一化处理或标准化。


试题4:下面哪个情形不适合作为K-Means迭代终止的条件?

  A. 前后两次迭代中,每个聚类中的成员不变
  B. 前后两次迭代中,每个聚类中样本的个数不变
  C. 前后两次迭代中,每个聚类的中心点不变

答案:B

A和C是等价的,因为中心点是聚类中成员各坐标的均值

问题延伸:K-means的k值选择及更新,迭代终止的两个条件。


试题5关于欠拟合(under-fitting),下面哪个说法是正确的?

  A. 训练误差较大,测试误差较小
  B. 训练误差较小,测试误差较大
  C. 训练误差较大,测试误差较大

答案:C

当欠拟合发生时,模型还没有充分学习训练集中基本有效信息,导致训练误差太大。测试误差也会较大,因为测试集中的基本信息(分布)是

与训练集相一致的。

延伸问题:模型状态?怎样判定?工具是什么?

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/789103
推荐阅读
相关标签
  

闽ICP备14008679号