赞
踩
机器学习(ML
)作为目前一个比较火领域,提供了许多有趣且高薪的工作和机会。
无论你是刚刚踏入机器学习领域的新手,还是已经积累了一定经验的从业者,面试都是检验你技能和知识的重要环节。
本文将梳理一些常见的面试问题,让你在面试中更加自信从容。
想要从事机器学习工作,至少应该熟悉:
Python
等编程语言知识,以及使用机器学习库的能力(如 NumPy、Pandas、scikit-learn、Matplotlib、Tensorflow 等)等接下来,整理了一些适合初学者和中级人员的一般问题,这些问题与任何特定的机器学习算法或方法无关。
通过掌握这些常见问题及其解答思路,不仅能更加深入地理解机器学习的核心概念,还能在面试中展现出你的专业素养和解决问题的能力。
机器学习算法主要分为三种类型:
主要解决回归和分类问题,其中回归问题具有连续的数字输出,而分类则处理离散的、通常是分类的输出。
无监督学习方法有几类,例如聚类分析、关联规则学习、异常检测等。
此外,还有半监督学习,它介于监督学习和无监督学习之间。
机器学习(ML)中数据集标准化之后,就可以比较不同单位的特征,这是许多 ML
方法(如支持向量机、神经网络、k 均值聚类、线性判别分析等)的要求。
标准化通常意味着对特征进行重新调整,使其均值为零,标准差为一。
在某些情况下,可以使用最小-最大标准化来代替,它重新调整特征,以便最小值映射到零,最大值映射到一,而所有其他值在零和一之间线性分布。
R2(决定系数)是一个数值,表示输入能够解释输出的程度。
一般用作拟合优度的度量,即回归问题中实际输出和预测输出的接近程度,此值越大越好,R2 = 1 表示完美拟合。
I 类错误(假阳性错误)表示错误地拒绝了真实的原假设。
II 类错误(假阴性错误)是错误地接受错误的原假设。
条件概率是在某些事件已经发生的情况下事件将发生的概率。
比如,在事件 F 发生的情况下,事件 E 发生的概率为:P(E|F) = P(EF) / P(F) ,其中** P(EF)** 是两个事件都发生的概率,而 P (F) 是 F 发生的概率。
训练集是数据集的一部分,用于训练模型,即拟合其参数;
验证集是超参数调整期间使用的数据集的另一部分;
测试集是数据集的第三部分,用于评估所选模型的性能。
数据集的这三个部分通常是独立的并且是随机选择的。
当模型和现有数据匹配的太好时,通常会发生过度拟合。
过度拟合的模型通常在训练数据上表现良好,但在应用于看不见的数据(测试数据)时表现不佳。
复杂或灵活的模型更容易出现过度拟合。
降维是一组减少机器学习模型特征(输入变量)数量的技术。
降维的主要方法有两种:
内核技巧与将数据映射到高维空间以使其明显可分离有关。
它避免计算该空间中数据点的新坐标,核技巧对于支持向量机和主成分分析很重要。
梯度下降是一种快速、迭代、近似、基于梯度的优化方法,旨在找到函数的局部最小值。
它从起点沿最陡下降的方向迭代移动,使用函数的负梯度计算方向和步长。
如果函数是凸函数,则梯度下降搜索全局最小值。
聚类或聚类分析是根据数据点(观测值)特征之间的相似性将数据点(观测值)分为两个或多个组(簇)的过程。
一些聚类方法包括 k 均值聚类、均值漂移聚类、层次聚类、谱聚类、亲和传播、DBSCAN 等。
偏差是模型预测的输出与实际输出之间的差异;
方差是不同训练集的模型预测变异性的度量。
简单的模型可能拟合不足,并且具有高偏差和低方差;
相反,复杂模型(具有许多参数)有时会出现低偏差和高方差的过度拟合。
我们想要的是偏差和方差的尽可能低的值,为了实现这一目标,我们必须找到适当复杂性的模型。
当然,工作面试不仅仅是询问和回答与领域相关的问题。
还应该关注一些工作面试中的一般建议,比如:
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。