赞
踩
建模多个随机变量的联合概率分布,刻画数据和模型中的不确定性和关联性。
是一类重要的概率图模型,主要解决问题:表示、推断、学习。
关键要素:有向无环图G、概率分布p
随机变量 X = ( X 1 , X 2 , . . . , X d ) , π k 是 X k 对应的父节点集合, X π k 为对应的随机变量的集合 X = (X_1,X_2,...,X_d),\pi_k是X_k对应的父节点集合,X_{\pi k}为对应的随机变量的集合 X=(X1,X2,...,Xd),πk是Xk对应的父节点集合,Xπk为对应的随机变量的集合
联合概率分布表示为 因子连乘的形式:
p
(
X
)
=
∏
i
=
1
d
p
(
X
i
∣
X
π
x
)
p(X) = \prod\limits_{i=1}^dp(X_i|X_{\pi x})
p(X)=i=1∏dp(Xi∣Xπx)
条件独立性:A和B 在给定C的条件下独立。
三种条件独立的基本结构:叉型、链型、对撞
变量消减:精确推断方法
近似推断方法:快速给出近似结果。主要有两类,第一类是基于采样的方法,马尔科夫链蒙特卡洛方法。第二类是变分推断方法,找离真正的后验分布最近的一个作为近似。
参数学习:假设贝叶斯网络结构给定,估计最优的参数or概率分布
点估计。 指标为统计散度。最大似然估计,等价于KL散度。
完全贝叶斯方法:把模型参数看做全局随机变量(先验),应用贝叶斯公式,估计一个参数上的后验概率分布,考虑所有模型 求平均
结构学习
小样本学习:给定几个数据情况下,如何学习一个合适的模型来完成预测
贝叶斯规划学习 BPL 是可解释的层次化贝叶斯模型:
表示: 符号层次(BPL采样不同的基本单元构建子部分,到部分之间关系,到 字)+实体层次(给定模板 逐步书写)
推断:给定图片,BPL推断对应的部分、子部分、关系的后验概率分布。(从左上角随机游走,采样所有可能,得到近似后验)
学习:两个层次,传统学习(在很多不同字符训练,推断参数的后验分布),学习如何学习(在新数据上 运用之前的经验迁移学习)
贝叶斯学习和深度学习的交叉融合
变分自编码器 VAE 和生成式对抗网络 GAN 。二者拟合数据的生成存在不可解释。因此通过贝叶斯网络表达可解释的,网络拟合剩下的。
例子: 概率图生成式对抗网络 Graphical-GAN,可以在没有语义标注情况下,自动学到可解释的特征。
dropout,深度学习上的近似贝叶斯推断
MC dropout,把同一个网络的不同随机版本当做后验分布采样,可以估计平均预测,也可以估计预测的不确定性。
因果模型考虑了模型外的变量,同时连接关系刻画的是因果关系(有方向的)t.js/# 第二章 贝叶斯方法
建模多个随机变量的联合概率分布,刻画数据和模型中的不确定性和关联性。
是一类重要的概率图模型,主要解决问题:表示、推断、学习。
关键要素:有向无环图G、概率分布p
随机变量 X = ( X 1 , X 2 , . . . , X d ) , π k 是 X k 对应的父节点集合, X π k 为对应的随机变量的集合 X = (X_1,X_2,...,X_d),\pi_k是X_k对应的父节点集合,X_{\pi k}为对应的随机变量的集合 X=(X1,X2,...,Xd),πk是Xk对应的父节点集合,Xπk为对应的随机变量的集合
联合概率分布表示为 因子连乘的形式:
p
(
X
)
=
∏
i
=
1
d
p
(
X
i
∣
X
π
x
)
p(X) = \prod\limits_{i=1}^dp(X_i|X_{\pi x})
p(X)=i=1∏dp(Xi∣Xπx)
条件独立性:A和B 在给定C的条件下独立。
三种条件独立的基本结构:叉型、链型、对撞
变量消减:精确推断方法
近似推断方法:快速给出近似结果。主要有两类,第一类是基于采样的方法,马尔科夫链蒙特卡洛方法。第二类是变分推断方法,找离真正的后验分布最近的一个作为近似。
参数学习:假设贝叶斯网络结构给定,估计最优的参数or概率分布
点估计。 指标为统计散度。最大似然估计,等价于KL散度。
完全贝叶斯方法:把模型参数看做全局随机变量(先验),应用贝叶斯公式,估计一个参数上的后验概率分布,考虑所有模型 求平均
结构学习
小样本学习:给定几个数据情况下,如何学习一个合适的模型来完成预测
贝叶斯规划学习 BPL 是可解释的层次化贝叶斯模型:
表示: 符号层次(BPL采样不同的基本单元构建子部分,到部分之间关系,到 字)+实体层次(给定模板 逐步书写)
推断:给定图片,BPL推断对应的部分、子部分、关系的后验概率分布。(从左上角随机游走,采样所有可能,得到近似后验)
学习:两个层次,传统学习(在很多不同字符训练,推断参数的后验分布),学习如何学习(在新数据上 运用之前的经验迁移学习)
贝叶斯学习和深度学习的交叉融合
变分自编码器 VAE 和生成式对抗网络 GAN 。二者拟合数据的生成存在不可解释。因此通过贝叶斯网络表达可解释的,网络拟合剩下的。
例子: 概率图生成式对抗网络 Graphical-GAN,可以在没有语义标注情况下,自动学到可解释的特征。
dropout,深度学习上的近似贝叶斯推断
MC dropout,把同一个网络的不同随机版本当做后验分布采样,可以估计平均预测,也可以估计预测的不确定性。
因果模型考虑了模型外的变量,同时连接关系刻画的是因果关系(有方向的)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。