赞
踩
在网上找的一些试题及延伸的一些问题,以选择题为主,主要是关于基础理论知识,同时给出自己联想到的一些问题。当然基础问题应当包含算法本身的过程和某些推导过程。比如:LR、SVM的推导。
试题1: 已知坐标轴中两点A(2,−2)B(−1,2),求这两点的曼哈顿距离(L1距离)。
答案:7 。向量AB(-3,4),L1 是向量中非零元素的绝对值和。
问题延伸:机器学习算法中哪些应用了L1,哪些应用了L2.
参考链接正则化技术
试题2:SVM中的核技巧(Kernal trick)的作用包括以下哪项?
A. 特征升维
B. 特征降维
C. 防止过拟合
答案:C
核技巧使用核函数将样本从原特征空间映射到更高维的空间,使得样本在更高维的空间中线性可分。
问题延伸:SVM的核函数本质及推导过程。
试题3: 在数据预处理阶段,我们常常对数值特征进行归一化或标准化(standardization, normalization)处理。这种处理方式理论上不会对下列哪个模型产生很大影响?
A. k-Means
B. k-NN
C. 决策树
答案:C
k-Means和k-NN都需要使用距离。而决策树对于数值特征,只在乎其大小排序,而非绝对大小。不管是标准化或者归一化,都不会影响数值之间的相对大小。关于决策树如何对数值特征进行划分
问题延伸:机器学习那些算法是进行归一化处理或标准化。
试题4:下面哪个情形不适合作为K-Means迭代终止的条件?
A. 前后两次迭代中,每个聚类中的成员不变
B. 前后两次迭代中,每个聚类中样本的个数不变
C. 前后两次迭代中,每个聚类的中心点不变
答案:B
A和C是等价的,因为中心点是聚类中成员各坐标的均值
问题延伸:K-means的k值选择及更新,迭代终止的两个条件。
试题5:关于欠拟合(under-fitting),下面哪个说法是正确的?
A. 训练误差较大,测试误差较小
B. 训练误差较小,测试误差较大
C. 训练误差较大,测试误差较大
答案:C
当欠拟合发生时,模型还没有充分学习训练集中基本有效信息,导致训练误差太大。测试误差也会较大,因为测试集中的基本信息(分布)是
与训练集相一致的。
延伸问题:模型状态?怎样判定?工具是什么?
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。