当前位置:   article > 正文

【机器学习】无监督学习算法之:高斯混合模型

【机器学习】无监督学习算法之:高斯混合模型

1、引言

小屌丝:鱼哥,给俺讲一讲什么是高斯啊
小鱼:高斯?
在这里插入图片描述

小屌丝:不是这个高斯
小鱼:不是这个高斯,那你等下,应该是这个。
在这里插入图片描述

小屌丝:… 也不是这个啊~
小鱼:这个还不是,那你再等下
小屌丝:好的好的。
小鱼:这次应该是对的。
在这里插入图片描述

小屌丝:… 啊啊啊~~ 不对啊, 鱼哥,你…
小鱼:咋了, 都三个形态了,还不对,那还有3个形态,你稍等。
小屌丝: 我说的不是高斯奥特曼
小鱼:不是高斯奥特曼,那是赛罗奥特曼?欧布奥特曼?
小屌丝:… 也不是的啊
小鱼:难道你是说?
小屌丝:嗯嗯嗯。
小鱼: 不会真的是 贝利亚奥特曼…
小屌丝: 啊啊啊~ ~ 鱼哥, 我说的不是奥特曼,是高斯混合模型
小鱼:哦哦哦~ ~ 谁让你不把名称说全了, 这整的…
小屌丝:鱼哥,赶紧的,讲一讲 高斯混合模型。
小鱼:这… 等我把这集奥特曼看完。
小屌丝:完美世界不香吗?印神王座不香吗? 还
小鱼:香… 这个真香…
小屌丝:那赶紧讲完,咱边泡澡边看动画片。
小鱼:这个更香。
在这里插入图片描述

2、高斯混合模型

2.1 定义

高斯混合模型是一种概率模型,它假设所有的数据点都是由有限个高斯分布(也称为正态分布)生成的。
每个高斯分布代表数据中的一个子集或“簇”,而整个数据集则是这些高斯分布的混合。

2.2 原理

高斯混合模型的核心思想是,通过估计每个高斯分布的参数(均值、协方差和权重),以及它们在混合模型中的比例,来拟合数据的概率分布。

这通常通过期望最大化(Expectation-Maximization, EM)算法来实现,该算法是一种迭代方法,用于在概率模型中寻找参数的最大似然估计。

2.3 实现方式

实现高斯混合模型通常包括以下步骤:

  • 初始化:为每个高斯分布随机选择均值、协方差和权重。
  • E步骤(期望步骤):根据当前参数估计,计算每个数据点属于每个高斯分布的概率。
  • M步骤(最大化步骤):使用E步骤中计算的概率,重新估计每个高斯分布的参数。
  • 迭代:重复E步骤和M步骤,直到参数收敛或达到预设的迭代次数。

2.4 算法公式

2.4.1 概率密度函数

高斯混合模型的概率密度函数可以表示为:

[ p ( x ) = ∑ k = 1 K π k N ( x ∣ μ k , Σ k ) ] [ p(x) = \sum_{k=1}^{K} \pi_k \mathcal{N}(x|\mu_k, \Sigma_k) ] [p(x)=k=1KπkN(xμk,Σk)]

其中,(K) 是高斯分布的个数, ( π k ) (\pi_k) (πk) 是第 ( k ) (k) (k) 个高斯分布的权重(满足 ( ∑ k = 1 K π k = 1 ) ) (\sum_{k=1}^{K} \pi_k = 1)) (k=1Kπk=1) ( μ k ) (\mu_k) (μk) ( Σ k ) (\Sigma_k) (Σk) 分别是第 ( k ) (k) (k) 个高斯分布的均值和协方差, ( N ( x ∣ μ k , Σ k ) ) (\mathcal{N}(x|\mu_k, \Sigma_k)) (N(xμk,Σk)) 是高斯分布的概率密度函数。

2.4.2 EM算法之E步骤

在EM算法的E步骤中,需要计算每个数据点属于每个高斯分布的后验概率:

[ γ ( z n k ) = π k N ( x n ∣ μ k , Σ k ) ∑ j = 1 K π j N ( x n ∣ μ j , Σ j ) ] [ \gamma(z_{nk}) = \frac{\pi_k \mathcal{N}(x_n|\mu_k, \Sigma_k)}{\sum_{j=1}^{K} \pi_j \mathcal{N}(x_n|\mu_j, \Sigma_j)} ] [γ(znk)=j=1KπjN(xnμj,Σj)πkN(xnμk,Σk)]

其中, ( z n k ) (z_{nk}) (znk) 是一个二元变量,表示数据点 ( x n ) (x_n) (xn)是否属于第 ( k ) (k) (k) 个高斯分布。

2.4.2 EM算法之M步骤

在M步骤中,根据后验概率重新估计参数:

[ π k = N k N , μ k = 1 N k ∑ n = 1 N γ ( z n k ) x n , Σ k = 1 N k ∑ n = 1 N γ ( z n k ) ( x n − μ k ) T ( x n − μ k ) ] [ \pi_k = \frac{N_k}{N}, \quad \mu_k = \frac{1}{N_k} \sum_{n=1}^{N} \gamma(z_{nk})x_n, \quad \Sigma_k = \frac{1}{N_k} \sum_{n=1}^{N} \gamma(z_{nk})(x_n - \mu_k)^T(x_n - \mu_k) ] [πk=NNk,μk=Nk1n=1Nγ(znk)xn,Σk=Nk1n=1Nγ(znk)(xnμk)T(xnμk)]

其中, ( N k ) (N_k) (Nk)是属于第 ( k ) (k) (k) 个高斯分布的数据点的数量。

2.5 代码示例

# -*- coding:utf-8 -*-
# @Time   : 2024-03-10
# @Author : Carl_DJ

'''
实现功能:
    scikit-learn库实现高斯混合模型 

'''
from sklearn.mixture import GaussianMixture  
import numpy as np  
  
# 生成一些随机数据  
np.random.seed(0)  
n_samples = 300  
X, y = make_blobs(n_samples=n_samples, centers=4, cluster_std=0.60, random_state=0)  
  
# 使用高斯混合模型进行拟合  
gmm = GaussianMixture(n_components=4).fit(X)  
  
# 预测数据点的标签  
labels = gmm.predict(X)  
  
# 显示结果  
plt.scatter(X[:, 0], X[:, 1], c=labels, s=40, cmap='viridis')  
plt.show()


  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28

解析

  • 生成随机数据

    • 使用numpy库生成了一个包含300个样本的随机数据集X,这些样本是二维的,并且根据四个中心点(centers=4)进行聚类,每个簇的标准差为0.6。
    • y是这些样本的真实标签,但在后续的高斯混合模型使用中并未直接使用到这些标签,因为GMM是一种无监督学习算法。
  • 高斯混合模型拟合

    • 使用sklearn.mixture中的GaussianMixture类创建了一个高斯混合模型对象gmm,并指定模型中有四个高斯成分(n_components=4),对应于数据中的四个簇。
    • 使用fit方法对数据集X进行拟合,估计每个高斯成分的均值、协方差和权重。
  • 预测数据点标签

    • 使用predict方法对数据集X中的每个数据点进行标签预测。这里,“标签”是指每个数据点最可能属于的高斯成分的索引。在聚类上下文中,这些标签可以被视为数据点的簇分配。
  • 可视化结果

    • 使用matplotlib的scatter函数,根据预测得到的标签labels,将数据点绘制在二维平面上,并使用颜色映射cmap='viridis’区分不同的簇。
    • plt.show()用于显示绘制的散点图。

    在这里插入图片描述

3、总结

看到这里,今天的内容就分享到告一段落了。
我们在回顾一下告诉混合模型:
高斯混合模型是一种强大的无监督学习算法,它能够发现数据中的复杂结构,并将数据划分为多个高斯分布的混合。通过EM算法迭代地估计每个高斯分布的参数,GMM能够有效地拟合数据的概率分布,并用于聚类、密度估计等任务。在实际应用中,GMM可以根据具体需求进行扩展

我是小鱼

  • CSDN 博客专家
  • 阿里云 专家博主
  • 51CTO博客专家
  • 多个名企认证讲师等
  • 认证金牌面试官
  • 名企签约职场面试培训、职场规划师
  • 多个国内主流技术社区的认证专家博主
  • 多款主流产品(阿里云等)测评一、二等奖获得者

关注小鱼,学习机器学习领域的知识。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/盐析白兔/article/detail/272617
推荐阅读
相关标签
  

闽ICP备14008679号