变分推断

发布:2023-08-16 10:04:33
阅读:4767
作者:网络整理
分享:复制链接

变分推断是一种概率推断方法,用于近似计算复杂概率模型的后验分布。它通过将原问题转化为一个优化问题,从而使得计算复杂度降低到可以接受的程度。变分推断在机器学习、统计学、信息论等领域都有广泛的应用。

为什么叫变分?

"变分"这个词源于函数论中的变分法,它是一种求解泛函极值的方法。在变分推断中,我们需要求解一个变分问题,即通过最小化一个距离度量来找到一个近似后验分布,该距离度量被称为变分距离,因此这种推断方法被称为变分推断。

变分推断的基本思想是找到一个近似分布,使得这个分布与真实后验分布的“距离”最小。具体地,我们定义一个参数化的分布族q(z;\lambda),其中z是隐变量,\lambda是待求参数。我们的目标是找到一个分布q(z;\lambda),使得它尽可能地接近真实后验分布p(z|x)。为了度量分布q(z;\lambda)和p(z|x)之间的距离,我们引入了变分距离,可以用KL散度来度量:

D_{KL}(q(z;\lambda)||p(z|x))=\int q(z;\lambda)\log\frac{q(z;\lambda)}{p(z|x)}dz

注意到KL散度是非负的,当且仅当q(z;\lambda)等于p(z|x)时,KL散度取到最小值0。因此,我们的目标可以转化为最小化KL散度,即:

\lambda^*=\arg\min_{\lambda}D_{KL}(q(z;\lambda)||p(z|x))

但是,由于KL散度是一个难以处理的复杂函数,我们无法直接最小化它。因此,我们需要采用一些近似方法来求解这个问题。

在变分推断中,我们采用一种称为变分下界的技巧来近似KL散度。具体地,我们首先将KL散度分解为:

D_{KL}(q(z;\lambda)||p(z|x))=E_{q(z;\lambda)}[\log q(z;\lambda)-\log p(z,x)]

然后,我们通过引入一个新的分布q(z|x),并利用Jensen不等式,得到了一个下界:

\log p(x)\ge E_{q(z|x)}[\log p(x,z)-\log q(z|x)]

其中,\log p(x)是数据的边缘概率,p(x,z)是联合概率分布,q(z|x)是近似后验分布。

这个下界被称为变分下界或ELBO(Evidence Lower Bound),可以通过最大化ELBO来优化近似后验分布的参数\lambda:

\lambda^*=\arg\max_{\lambda}E_{q(z|x;\lambda)}[\log p(x,z)-\log q(z|x;\lambda)]

注意到,这个优化问题可以通过梯度下降等优化算法求解。最终,我们得到的近似后验分布q(z|x)可以用于计算各种期望,例如预测、模型选择等。

总之,变分推断是一种基于最小化KL散度的概率推断方法,通过引入变分下界的技巧,利用优化算法来近似计算复杂概率模型的后验分布。

扫码进群
微信群
免费体验AI服务