赞
踩
[28]:基于神经网络(NN)的方法对混合模型(MM)的研究相对较少
[29]:使用高斯MM(GMM)将深度NN建模为变压器的混合物
[42]:使用了对数线性模型与GMM和NN的概念
[43]:通过他们提出的GMM层学习了区别特征
本文不同之处:
特征是从概率分布的有限统计混合中发布的,然后,使用变换器将这些特征转换为2D图像空间,具有M类的SFR模型:
SFR ( x i ∣ Θ M ) = ∑ j = 1 M π j V d ( x i ∣ μ j , κ j ) \operatorname{SFR}\left(\mathbf{x}_i \mid \Theta_M\right)=\sum_{j=1}^M \pi_j V_d\left(\mathbf{x}_i \mid \mu_j, \kappa_j\right) SFR(xi∣ΘM)=j=1∑MπjVd(xi∣μj,κj)
π j :第 j 类的混合比例 \pi_j :第j类的混合比例 πj:第j类的混合比例
μ j :第 j 类的平均方向 \mu_j :第j类的平均方向 μj:第j类的平均方向
κ j :第 j 类的浓度值 \kappa_j :第j类的浓度值 κj:第j类的浓度值
Θ M :一组模型参数 \Theta_M:一组模型参数 ΘM:一组模型参数
V d ( . ) : v M F 分布的密度函数 V_d(.):vMF分布的密度函数 Vd(.):vMF分布的密度函数
(1)使用CNN模型将输入2D对象图像映射到vMF特征,我们将其用作变换器
(2)基于SFR模型的区分视图将特征分类到各个类别。
V d ( x ∣ μ , κ ) = C d ( κ ) exp ( κ μ T x ) V_d(\mathbf{x} \mid \mu, \kappa)=C_d(\kappa) \exp \left(\kappa \mu^T \mathbf{x}\right) Vd(x∣μ,κ)=Cd(κ)exp(κμTx)
归一化常数: C d ( κ ) = κ d / 2 − 1 ( 2 π ) d / 2 I d / 2 − 1 ( κ ) 归一化常数 : C_d(\kappa)=\frac{\kappa^{d / 2-1}}{(2 \pi)^{d / 2} I_{d / 2-1}(\kappa)} 归一化常数:Cd(κ)=(2π)d/2Id/2−1(κ)κd/2−1
μ :均值方向, κ :围绕方向 μ 的浓度参数 \mu : 均值方向,\kappa :围绕方向\mu的浓度参数 μ:均值方向,κ:围绕方向μ的浓度参数
I ρ ( . ) :第一类修正贝塞尔函数, I d ( k ) = ∑ k ≥ 0 1 Γ ( d + k + 1 ) k ! ( k 2 ) 2 k + d I_{\rho}(.) :第一类修正贝塞尔函数, I_{d}(k)=\sum_{k \geq 0} \frac{1}{\Gamma(d+k+1) k !}\left(\frac{k}{2}\right)^{2 k+d} Iρ(.):第一类修正贝塞尔函数,Id(k)=k≥0∑Γ(d+k+1)k!1(2k)2k+d
μ = ∑ i x i ∥ ∑ i x i ∥ , k = A d − 1 ( R ˉ ) , Γ ( ⋅ ) 伽马函数 \mu=\frac{\sum{ }_{i} x_{i}}{\left\|\sum_{i} x_{i}\right\|,} \quad k=A_{d}^{-1}(\bar{R}), \Gamma(\cdot)伽马函数 μ=∥∑ixi∥,∑ixik=Ad−1(Rˉ),Γ(⋅)伽马函数
A d ( k ) = − c d ′ ( k ) c d ( k ) = I d / 2 ( k ) I d / 2 − 1 ( k ) = ∥ ∑ i x i ∥ n = R ˉ A_{d}(k)=\frac{-c_{d}^{\prime}(k)}{c_{d}(k)}=\frac{I_{d / 2}(k)}{I_{d / 2-1}(k)}=\frac{\left\|\sum_{i} x_{i}\right\|}{n}=\bar{R} Ad(k)=cd(k)−cd′(k)=Id/2−1(k)Id/2(k)=n∥∑ixi∥=Rˉ
X = { x i } i = 1 , … , N 一组样本, N 是样本总数,有 M 类特征 \mathbf{X}=\left\{\mathbf{x}_{i}\right\}_{i=1, \ldots, N} 一组样本, N是样本总数,有M类特征 X={xi}i=1,…,N一组样本,N是样本总数,有M类特征
对于每个样本 x i : g v ( x i ∣ Θ M ) = ∑ j = 1 M π j V d ( x i ∣ μ j , κ j ) ( 前面的 S F R ) 对于每个样本\mathbf{x}_{i} :g_{v}\left(\mathbf{x}_{i} \mid \Theta_{M}\right)=\sum_{j=1}^{M} \pi_{j} V_{d}\left(\mathbf{x}_{i} \mid \mu_{j}, \kappa_{j}\right) (前面的SFR) 对于每个样本xi:gv(xi∣ΘM)=j=1∑MπjVd(xi∣μj,κj)(前面的SFR)
Θ M = { ( π 1 , μ 1 , κ 1 ) , … , ( π M , μ M , κ M ) :参数集 \Theta_{M}=\left\{\left(\pi_{1}, \mu_{1}, \kappa_{1}\right), \ldots,\left(\pi_{M}, \mu_{M}, \kappa_{M}\right)\right.:参数集 ΘM={(π1,μ1,κ1),…,(πM,μM,κM):参数集
π j :第 j 类的混合比例 \pi_j :第j类的混合比例 πj:第j类的混合比例
期望最大化EM已用于通过最小化负对数似然值来估计vMFMM参数
后验概率: p i j = π j V d ( x i ∣ μ j , κ j ) ∑ l = 1 M π l V d ( x i ∣ μ l , κ l ) 后验概率:p_{i j}=\frac{\pi_{j} V_{d}\left(\mathbf{x}_{i} \mid \mu_{j}, \kappa_{j}\right)}{\sum_{l=1}^{M} \pi_{l} V_{d}\left(\mathbf{x}_{i} \mid \mu_{l}, \kappa_{l}\right)} 后验概率:pij=∑l=1MπlVd(xi∣μl,κl)πjVd(xi∣μj,κj)
参数更新: π j = 1 N ∑ i = 1 N p i j , μ j = ∑ i = 1 N p i j x i ∑ i = 1 N p i j , r ˉ = ∥ μ j ∥ N π j , μ j = μ j ∥ μ j ∥ , κ j = r ˉ d − r ˉ 3 1 − r ˉ 2 参数更新:\pi_{j}=\frac{1}{N} \sum_{i=1}^{N} p_{i j},\mu_{j}=\frac{\sum_{i=1}^{N} p_{i j} \mathbf{x}_{i}}{\sum_{i=1}^{N} p_{i j}},\bar{r}=\frac{\left\|\mu_{j}\right\|}{N \pi_{j}},\mu_{j}=\frac{\mu_{j}}{\left\|\mu_{j}\right\|},\kappa_{j}=\frac{\bar{r} d-\bar{r}^{3}}{1-\bar{r}^{2}} 参数更新:πj=N1i=1∑Npij,μj=∑i=1Npij∑i=1Npijxi,rˉ=Nπj∥μj∥,μj=∥μj∥μj,κj=1−rˉ2rˉd−rˉ3
p i j = exp ( κ μ j T x i ) ∑ l = 1 M exp ( κ μ l T x i ) p_{i j}=\frac{\exp \left(\kappa \mu_{j}^{T} \mathbf{x}_{i}\right)}{\sum_{l=1}^{M} \exp \left(\kappa \mu_{l}^{T} \mathbf{x}_{i}\right)} pij=∑l=1Mexp(κμlTxi)exp(κμjTxi)
L v M F M L = − ∑ i = 1 N ∑ j = 1 M y i j log ( p i j ) = − ∑ i = 1 N log exp ( κ μ j T x i ) ∑ l = 1 M exp ( κ μ l T x i ) = − ∑ i = 1 N log e z i j ∑ l = 1 M e z i l [ z j = κ μ j T x i ] \mathcal{L}_{v M F M L}=-\sum_{i=1}^{N} \sum_{j=1}^{M} y_{i j} \log \left(p_{i j}\right)=-\sum_{i=1}^{N} \log \frac{\exp \left(\kappa \mu_{j}^{T} \mathbf{x}_{i}\right)}{\sum_{l=1}^{M} \exp \left(\kappa \mu_{l}^{T} \mathbf{x}_{i}\right)}=-\sum_{i=1}^{N} \log \frac{e^{z_{i j}}}{\sum_{l=1}^{M} e^{z_{i l}}}\left[z_{j}=\kappa \mu_{j}^{T} \mathbf{x}_{i}\right] LvMFML=−i=1∑Nj=1∑Myijlog(pij)=−i=1∑Nlog∑l=1Mexp(κμlTxi)exp(κμjTxi)=−i=1∑Nlog∑l=1Mezilezij[zj=κμjTxi]
y i j :真实类概率,若为 1 ,只知道真正的类标签 y_{i j}:真实类概率,若为1,只知道真正的类标签 yij:真实类概率,若为1,只知道真正的类标签
L Softmax = − ∑ i = 1 N log exp ( w j T f i + b j ) ∑ l = 1 M exp ( w l T f i + b l ) \mathcal{L}_{\text {Softmax }}=-\sum_{i=1}^{N} \log \frac{\exp \left(\mathbf{w}_{j}^{T} \mathbf{f}_{i}+b_{j}\right)}{\sum_{l=1}^{M} \exp \left(\mathbf{w}_{l}^{T} \mathbf{f}_{i}+b_{l}\right)} LSoftmax =−i=1∑Nlog∑l=1Mexp(wlTfi+bl)exp(wjTfi+bj)
f i :第 i 个图像特征, w j : 第 j 类的权重, b j : 第 j 类的偏差 \mathbf{f}_{i}:第i个图像特征,\mathbf{w}_{j}:第j类的权重,\mathbf{b}_{j}:第j类的偏差 fi:第i个图像特征,wj:第j类的权重,bj:第j类的偏差
x = f ∥ f ∥ \mathbf{x}=\frac{\mathbf{f}}{\|\mathbf{f}\|} x=∥f∥f
μ = w ∥ w ∥ \mu=\frac{\mathbf{w}}{\|\mathbf{w}\|} μ=∥w∥w
∂
z
j
∂
κ
=
μ
j
T
x
;
∂
z
j
∂
μ
j
d
=
κ
x
d
;
∂
z
j
∂
x
d
=
κ
μ
j
d
∂
x
d
∂
f
d
=
{
∂
x
d
∂
f
d
=
∥
f
∥
2
−
f
d
2
∥
f
∥
3
=
1
−
x
d
2
∥
f
∥
∂
x
r
∂
f
d
=
−
f
d
f
r
∥
f
∥
3
=
−
x
d
x
r
∥
f
∥
∂
μ
d
∂
w
d
=
{
∂
μ
d
∂
w
d
=
∥
w
∥
2
−
w
d
2
∥
w
∥
3
=
1
−
μ
d
2
∥
w
∥
∂
μ
r
∂
w
d
=
−
w
d
w
r
∥
w
∥
3
=
−
μ
d
μ
r
∥
w
∥
∂
L
∂
κ
=
∑
j
=
1
M
(
p
j
−
y
j
)
μ
j
T
x
;
∂
L
∂
μ
j
d
=
(
p
j
−
y
j
)
κ
x
d
∂
L
∂
x
d
=
∑
j
=
1
M
(
p
j
−
y
j
)
κ
μ
j
d
;
∂
L
∂
f
d
=
1
∥
f
∥
(
∂
L
∂
x
d
−
x
d
∑
r
∂
L
∂
x
r
x
r
)
- LFW:野外人脸识别
- IJB-A:人脸模板匹配
- Y ouTube faces:视频人脸匹配
- CACD:跨年龄人脸匹配
(a)使用学习模型来合成保持身份的人脸并增强训练数据集;
(b)利用生成性对抗网络探索SFR模型
(c)将其应用于其他视觉任务(例如场景分析)、其他域(例如NLP、语音分析)和其他任务(例如聚类)。此外,通过忽略平等特权假设,可以进一步分析类/集群的变化,这对于无监督问题很有意义。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。