赞
踩
统计学习(或机器学习)范围广、内容多、应用领域广泛,无法用一个统一的理论体现涵盖所有内容,可以从多个角度对统计学习方法进行分类。
基本分类的方法是大部分人所知悉的,按基本分类,统计学习可以分为监督学习、非监督学习、强化学习,有时还包括半监督学习、主动学习。
监督学习是指从标注数据中学习预测模型的机器学习,标注数据表示输入输出的对应关系,预测模型对给定的输入产生相应的输出,其本质是学习输入到输出的映射的统计规律。
监督学习是一种基于已知输入和对应输出(标签)的数据集进行学习的方法。在这种模式下,模型通过训练数据学习到一个映射关系,即如何从输入数据预测输出结果。
监督学习可以进一步分为分类问题和回归问题。分类问题是指输出是离散的类别标签,而回归问题是指输出是连续的数值。
常见的监督学习算法包括线性回归、逻辑回归、支持向量机、决策树、神经网络等。
❀❀❀❀❀❀老猿注:
非监督学习(也称为无监督学习)是指从无标注的的数据中学习预测模型的机器学习,涉及到没有标签的数据集。模型需要自行发现数据中的结构和模式。
无监督学习的本质是学习数据中的统计规律或潜在结构,主要的目标可能包括聚类(将数据分组到不同的类别中,使得同一组内的数据点相似度高,不同组之间的数据点相似度低)和降维(减少数据的维度,同时保留重要的信息)。
非监督学习的理解可能没有监督学习那么直观,为此老猿在此举几个例子,有助于使得这2个概念比较通俗易懂。
强化学习是指智能系统在与环境的连续互动中学习最优行为策略的机器学习,模型(称为智能体或智能系统)通过与环境的交互来学习如何做出决策。在这种学习模式中,智能体在每一步都会采取一个动作,并从环境中获得一个反馈(奖励或惩罚)。目标是学习一个策略,以最大化长期累积的奖励。
❀❀❀❀❀❀下面老猿举一些强化学习的应用案例:
半监督学习介于监督学习和非监督学习之间,它使用标注数据和未标注数据学习预测模型。这种方法利用少量的标注数据和大量的未标注数据,通过结合两者来提高学习模型的性能。半监督学习在标注数据成本高昂或难以获得的情况下特别有用。
半监督学习旨在利用未标注数据中的信息,辅助标注数据进行监督学习,以较低成本达到较好的学习效果。
半监督学习的关键点是怎么使得未标注的数据发生作用,这个问题有多种方法来应对,在此暂不展开说明。
主动学习是一种特殊的学习模式,机器不断主动给出实例让人进行标注,然后利用标注数据学习预测模型,模型可以主动选择它认为最有信息量的数据点进行标注。在这种模式下,模型可以向人类专家或其他信息源提出问题(例如,请求标注特定的数据点),并根据得到的答案来更新和改进自身。主动学习的目标是以最少的标注努力获得最好的学习效果。
概率模型是基于概率论的模型,它们在模型的构建和预测过程中显式地使用概率分布。概率模型考虑了数据的不确定性和随机性,通常用于估计事件的概率或计算条件概率。
概率模型的关键特点如下:
概率模型的例子包括朴素贝叶斯分类器、高斯混合模型、隐马尔可夫模型等。
非概率模型不直接使用概率分布,而是通过确定性的规则或映射关系来进行预测。这类模型通常关注于找到一个从输入到输出的最优映射,而不显式地考虑概率或不确定性。
非概率模型的特点如下:
非概率模型的例子包括支持向量机、神经网络等。
确定性模型是指在给定输入的情况下,总是产生相同输出的模型。这类模型不考虑数据的随机性或不确定性,而是假设输入和输出之间存在一个明确的、固定的映射关系。确定性模型的特点是:
例如线性回归等。
确定性模型可以被视为非概率模型的一个特例。所有确定性模型都是非概率模型,但非概率模型不全是确定性的。非概率模型可能使用其他方法来处理不确定性,而不依赖概率分布。
概率模型与非概率模型的主要区别在于是否使用概率分布来描述数据和预测。概率模型提供了关于预测不确定性的量化信息,而非概率模型可能不提供这种信息,或者采用其他方式来处理不确定性。
选择使用概率模型还是非概率模型通常取决于问题的性质和需求。如果问题需要考虑数据的随机性或需要概率解释,概率模型可能更合适。如果问题更关注于找到一个最优的预测或决策规则,而不关心概率解释,非概率模型可能更受欢迎。
在实际应用中,有时也会结合概率模型和非概率模型的优点,例如,在非概率模型的基础上引入概率估计,或者将概率模型的输出用于非概率模型的决策过程中。这种混合方法可以提供更灵活和强大的解决方案。
统计学习模型中,特别是非概率模型中,可以分为线性模型(Linear Model)和非线性模型(Non-linear Model)。线性模型是指模型的输出是输入特征的线性组合,非线性模型则与此相反。
参数化模型(Parametric Model)是基于一组固定数量的参数来定义的模型,这些参数完全确定了模型的结构和形式,模型可以由有限参数完成表达。参数化模型通常基于某些假设或理论来指定模型的形式,例如正态分布、指数分布等。
非参数化模型(Non-parametric Model)不基于固定数量的参数,可以说模型参数无穷大,而是允许模型结构根据数据的内在特性自由变化,会随着训练数据的增加而不断增大。
❀❀❀❀❀❀老猿注:现在流行的GPT4.0等大模型是基于深度学习中的神经网络架构,特别是Transformer模型,它们通过训练过程中的学习调整大量参数来捕捉和学习数据中的复杂模式和关系,但这些模型并不是非参数模型,而是参数化模型。
机器学习按算法分类分为了在线学习(Online Learning)和批量学习(Batch Learning):
在线学习(Online Learning)
在线学习算法在数据流式传输时进行学习,每次只处理一个样本或小批量样本,然后立即更新模型,并不断重复该过程。这种学习方式适合于数据不断变化或大量数据的情况,因为它允许模型快速适应新数据。
批量学习(Batch Learning)
批量学习算法在训练过程中一次性使用所有可用的数据。这种学习方式适合于数据集相对较小或固定的情况。
在线学习看起来很好,但比批量学习更难,很难得到预测准确率更高的模型,因为每次模型的更新可利用的数据有限。
机器学习按技巧分类为贝叶斯学习(Bayesian Learning)和核方法(Kernel Method)。
贝叶斯学习是一种统计学习方法,又称为贝叶斯推理(Bayesian Inference),它基于贝叶斯定理和概率论的原理。
贝叶斯定理:贝叶斯学习的核心是贝叶斯定理,它提供了一种计算条件概率的方法。贝叶斯定理的公式为:
P
(
θ
∣
D
)
=
P
(
θ
)
⋅
P
(
D
∣
θ
)
P
(
D
)
P(θ|D) = \frac{P(θ) \cdot P(D|θ)}{P(D)}
P(θ∣D)=P(D)P(θ)⋅P(D∣θ)
按照统计学的条件概率的贝叶斯定理,P(θ|D) 是在事件D发生的条件下事件θ发生的概率(后验概率),P(D∣θ) 是在事件θ发生的条件下事件D发生的概率,P(θ)是事件θ的先验概率,P(D) 是事件D的概率。
在统计学习中,D表示数据,θ表示模型参数,P(θ)是先验概率,P(θ|D)是后验概率,P(D|θ)是似然函数,模型估计时,估计整个后验概率分布P(θ|D),如果要给出一个模型,通常取后验概率最大的模型。
预测时,计算数据对后验概率的期望值:P(x|D)=∫P(x|θ,D)P(θ|D)dθ,这里x是新样本。
在贝叶斯学习中,模型的参数被视为随机变量,它们有先验概率分布,通过观测数据来更新这些参数的后验概率分布。具体来说,在概率模型的学习和推理中,利用贝叶斯定理计算在给定数据条件下模型的条件概率(即后验概率),并应用这个原理进行模型的估计以及对数据的预测。
老猿觉得这个公式在 概率统计中很好理解,但到统计学习中这个公式与概率统计中的理解要复杂得多,为此老猿专门进行了深入学习,相关感悟请参考《关于机器学习中贝叶斯学习(Bayesian Learning)计算公式的理解》。
核方法是使用核函数来表示和学习非线性模型的一种机器学习方法,它将非线性的复杂数据从原始空间映射到新空间,使得在新空间中原本复杂的关系变得简单,从而可以使用传统的线性方法来处理。也就是说核方法通过一种特殊的变换,将原始数据映射到一个新空间,在这个新空间中,原本线性不可分的数据变得线性可分了。
核函数是机器学习中一种特殊的函数,它能够在不显式地进行高维空间映射的情况下,计算在新的特征空间中点与点之间的相似性。核函数通过将数据映射到更高维的特征空间,核函数使得算法能够找到合适的决策边界,从而提高学习性能。核函数之所以重要,是因为它们使得机器学习算法能够处理那些在原始特征空间中线性不可分的数据。
核函数的一个关键特性是它满足Mercer定理,这意味着它可以生成一个有效的内积,并且可以保证学习算法(如支持向量机)的稳定性和收敛性。常见的核函数包括:
核函数之所以重要,是因为它们使得机器学习算法能够处理那些在原始特征空间中线性不可分的数据。通过将数据映射到更高维的特征空间,核函数使得算法能够找到合适的决策边界,从而提高学习性能。此外,核方法的另一个优点是它们具有很好的泛化能力,这意味着它们能够在未见过的数据上表现得也很好。这使得核方法在许多实际应用中非常有用,如图像识别、生物信息学、文本分类等领域。
以上关于核方法和核函数的介绍是老猿查阅相关资料整理而成的,但老猿自己几乎都没有理解,只有等后续继续学习才能明白,不过为了文章的完整性,在此还是将其整理在文中,如果有疏漏之处,敬请指教。
本文介绍了统计学习的各种分类,按基本分类,统计学习可以分为监督学习、非监督学习、强化学习,有时还包括半监督学习、主动学习,按模型分类,分为概率模型和非概率模型,按算法分类分为了在线学习和批量学习,按技巧分类为贝叶斯学习和核方法。这些分类方法是从不同视角进行的,因此各种分类方法之间对应的学习方法又是交叉的,正所谓条条大路通罗马。
更多统计学习基础知识请参考专栏《统计学习基础知识》。
更多人工智能基础知识请参考专栏《人工智能基础知识》。
如果阅读本文于您有所获,敬请点赞、评论、收藏,谢谢大家的支持!
前两个专栏都适合有一定Python基础但无相关知识的小白读者学习,第三个专栏请大家结合《https://blog.csdn.net/laoyuanpython/category_9979286.html OpenCV-Python图形图像处理 》的学习使用。
对于缺乏Python基础的同仁,可以通过老猿的免费专栏《https://blog.csdn.net/laoyuanpython/category_9831699.html 专栏:Python基础教程目录)从零开始学习Python。
如果有兴趣也愿意支持老猿的读者,欢迎购买付费专栏。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。