返回介绍

18.1 对数似然梯度

发布于 2024-01-20 12:27:18 字数 2743 浏览 0 评论 0 收藏 0

通过最大似然学习无向模型特别困难的原因在于配分函数依赖于参数。对数似然相对于参数的梯度具有一项对应于配分函数的梯度:

这是机器学习中非常著名的正相(positive phase)和负相(negative phase)的分解。

对于大多数感兴趣的无向模型而言,负相是困难的。没有潜变量或潜变量之间很少相互作用的模型通常会有一个易于计算的正相。RBM的隐藏单元在给定可见单元的情况下彼此条件独立,是一个典型的具有简单正相和困难负相的模型。正相计算困难,潜变量之间具有复杂相互作用的情况将主要在第19章中讨论。本章主要探讨负相计算中的难点。

让我们进一步分析log Z的梯度:

对于保证所有的x都有p(x)>0的模型,我们可以用代替

上述推导对离散的x进行求和,对连续的x进行积分也可以得到类似结果。在连续版本的推导中,使用在积分符号内取微分的莱布尼兹法则可以得到等式

该等式只适用于上的一些特定规范条件。在测度论术语中,这些条件是:(1)对每一个θ而言,未归一化分布必须是x的勒贝格可积函数。(2)对于所有的θ和几乎所有x,梯度必须存在。(3)对于所有的θ和几乎所有的x,必须存在一个可积函数R(x)使得。幸运的是,大多数感兴趣的机器学习模型都具有这些性质。

等式

是使用各种蒙特卡罗方法近似最大化(具有难计算配分函数模型的)似然的基础。

蒙特卡罗方法为学习无向模型提供了直观的框架,我们能够在其中考虑正相和负相。在正相中,我们增大从数据中采样得到的。在负相中,我们通过降低从模型分布中采样的来降低配分函数。

在深度学习文献中,经常会看到用能量函数(式(16.7))来参数化。在这种情况下,正相可以解释为压低训练样本的能量,负相可以解释为提高模型抽出的样本的能量,如图18.1所示。

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文