赞
踩
本文档记录刷题过程中做错的一些题目,并将其分类,以便于以后复习。
1. 决策树的数量;
2. 决策树的深度;
3. 学习率。
答案: 2
1. L0-norm
2. L1-norm
3. L2-norm
答案:1、2 L0-norm为向量中非零元素的个数
1. 偏差(bias)变小
2. 偏差变大
3. 偏差不变
4. 不确定
答案: 3,模型收敛后偏差趋向不变
$X \sim N(1,2),Y \sim N(3,5)$
,则$X+Y \sim$
1. N(4,7)
2. N(4,\sqrt 2 + \sqrt 5)
3. N(1 + \sqrt 3 ,7)
4. 不确定
答案 : 4 ,通过边缘概率分布不能确定联合概率分布
答案 :B
1. 多项式核函数
2. sigmoid核函数
3. 径向基核函数
4. logistic核函数
答案:4.
1. 函数在某点的梯度方向与取得最大方向导数的方向一致。
2. 在等式约束条件下,约束的梯度向量与目标函数的梯度向量在最优解处一定平行。
3. KKT条件是强对偶成立的充要条件。
4. 函数在某点的梯度的模为方向导数的最大值。
答案:3.
KKT条件是强对偶性成立的必要条件,特别的,当原问题是凸优化问题时,KKT条件就是充要条件。
1. simplex在多项式复杂度的时间内可以解决线性规划问题
2. simplex不是多项式复杂度,而且线性规划的问题不可以在多项式时间内求解
3. 线性规划的问题可以在多项式时间内求解,但是simplex不是多项式复杂度
4. 因为线性规划的可行域总是凸集,所以simplex算法才能在多项式时间复杂度内解决线性规划问题
答案:3.
1. 二者相同
2. 重复抽样误差大
3. 不重复抽样误差大
4. 不确定
答案: 2.
1. KNN算法可以用来解决回归问题
2 .随着K值的增大,决策边界(decision boundary)会越来越光滑
3. KNN算法适合解决高维稀疏数据上的问题
4. 相对3近邻模型而言,1近邻模型的bias更大,variance更小
答案:1. 2. K为1时方差更大,偏差不一定,容易过拟合,K太大时偏差大
1. 传统交叉熵只考虑了特征与类别之间的相关性,而忽略了特征项在类内和类间分布的均匀程度。
2. 互信息筛选特征的方法受稀有特征的影响比较大
3. 信息增益筛选特征倾向于特征值比较多的特征
4. 皮尔逊相关系数计算时,方差均为0时,相关性最大
答案: 4. 当方差为0的时候,相关系数为0.
1. 准确率为TP/(TP+FP)
2. 召回率为TP/(TP+FN)
3. f1-score为2TP/(2TP+FP+FN)
4. f1-score为准确率*召回率/(准确率+召回率)
1. SVM
2. K-Medoids
3. 决策树
4. RBM
5. GAN
答案 : 2. 4. 5. RBM(受限玻尔兹曼机)也可以通过无监督学习训练
1. bagging/boosting
2. batch normalization
3. L2范式
4. cross validation
答案: 2. 交叉验证的作用是建立模型和验证模型,对样本数进行切割,组成不同的训练集和测试集。
1. 朴素贝叶斯
2. SVM
3. 逻辑回归
4. 感知机
5. XGBoost
1. 随机森林可以降低预测方差
2. 随机森林可以降低预测偏差
3. 随机森林可以降低噪音
4. 以上全部
错选:4.
答案:1.
随机森林采用bagging的集成思想,可以降低方差,对于boosting模型可以降低偏差
1. 卡方
2. 信息增益
3. 交叉熵
4. 互信息
错选:2. 4.
正确:1. 2. 3. 4.
在文本分类中,首先要对数据进行特征提取,特征提取中又分为特征选择和特征抽取两大类,在特征选择算法中有互信息,文档频率,信息增益,卡方检验以及期望交叉熵。
1. 逻辑斯提回归的常用损失函数其实本质是一种相对熵度量
2. 核方法可以简化再机器学习中高维映射的运算
3. 随机梯度下降方法可以得到理论上的最优解
4. 剪枝是防止决策树模型过拟合的一种常见方法
错选:2. 3. 4.
答案:2. 4.
1. 在实际场景下,应尽量使用ADAM,避免使用SGD
2. 同样的初始学习率情况下,ADAM的收敛速度总是快于SGD方法
3. 相同超参数数量情况下,比起自适应的学习率调整方式,SGD加手动调节通常会取得更好效果
4. 同样的初始学习率情况下,ADAM比SGD容易过拟合
错选: 2.
答案: 3.
1. PCA
2. IsoMap
3. LLE
4. LVW
错选: 2.
答案: 4.
1. 一般使用投票法进行分类任务
2. kNN属于懒惰学习
3. kNN训练时间普遍偏长
4. 距离计算方法不同,效果也可能有显著差别
错选: 1.
答案: 3.
1. 已知类别的样本质量
2. 分类准则
3. 特征选取
4. 模式相似性测度
答案:2. 3. 4.
1. 95
2. 96
3. 97
4. 98
答案 : 97.
图像卷积后尺寸计算公式
N = (W-F+2P)/ S+1 ,输出图片大小为 N*N。
1. 少于2s
2. 大于2s
3. 仍是2s
4. 说不准
答案: 3. dropout会增加训练时间,但是不会增加测试时间。
1. 49
2. 50
3. 51
4. 52
答案 : 2
完全二叉树,当节点数为偶数时,叶子节点个数为n/2,当节点数为奇数时,叶子节点个数为(n+1)/2
1. O(1),O(n)
2. O(n),O(n)
3. O(n),O(nlogn)
4. O(nlogn),O(nlogn)
答案:3.
3.若一个递归函数的规模函数T(n) = T(n-2) + (n^2)/3,则其算法的时间复杂度为:
1. O(n^2)
2. O(n^2 log(n))
3. O(n^3)
4. O(n^3 log(n))
答案: 3.
算数级数:与末项平方同阶:
T ( n ) = 1 + 2 + 3 + . . + n = n ( n + 1 ) / 2 = O ( n 2 ) T(n) = 1+2+3+..+n = n(n+1)/2 = O(n^2) T(n)=1+2
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。