返回介绍

17.1 采样和蒙特卡罗方法

发布于 2024-01-20 12:27:18 字数 2923 浏览 0 评论 0 收藏 0

机器学习中的许多重要工具都基于从某种分布中采样,以及用这些样本对目标量做一个蒙特卡罗估计。

17.1.1 为什么需要采样

有许多原因使我们希望从某个分布中采样。当我们需要以较小的代价近似许多项的和或某个积分时,采样是一种很灵活的选择。有时候,我们使用它加速一些很费时却易于处理的求和估计,就像我们使用小批量对整个训练代价进行子采样一样。在其他情况下,我们需要近似一个难以处理的求和或积分,例如估计一个无向模型中配分函数对数的梯度时。在许多其他情况下,抽样实际上是我们的目标,例如我们想训练一个可以从训练分布采样的模型。

17.1.2 蒙特卡罗采样的基础

当无法精确计算和或积分(例如,和具有指数数量个项,且无法被精确简化)时,通常可以使用蒙特卡罗采样来近似它。这种想法把和或者积分视作某分布下的期望,然后通过估计对应的平均值来近似这个期望。令

或者

为我们所需要估计的和或者积分,写成期望的形式,p是一个关于随机变量x的概率分布(求和时)或者概率密度函数(求积分时)。

我们可以通过从p中抽取n个样本x(1),…,x(n)来近似s并得到一个经验平均值

下面几个性质表明了这种近似的合理性。首先很容易观察到这个估计是无偏的,由于

此外,根据大数定理(Law of large number),如果样本x(i)是独立同分布的,那么其平均值几乎必然收敛到期望值,即

只需要满足各个单项的方差Var[f(x(i))]有界。详细地说,我们考虑当n增大时的方差。只要满足Var[f(x(i))]<∞,方差就会减小并收敛到0:

这个简单有用的结果启迪我们如何估计蒙特卡罗均值中的不确定性,或者等价地说是蒙特卡罗估计的期望误差。我们计算了f(x(i))的经验均值和方差(1),然后将估计的方差除以样本数n来得到的估计。中心极限定理(central limit theorem)告诉我们的分布收敛到以s为均值以为方差的正态分布。这使得我们可以利用正态分布的累积函数来估计的置信区间。

以上的所有结论都依赖于我们可以从基准分布p(x)中轻易地采样,但是这个假设并不是一直成立的。当我们无法从p中采样时,一个备选方案是用第17.2节讲到的重要采样。一种更加通用的方式是构建一个收敛到目标分布的估计序列。这就是马尔可夫链蒙特卡罗方法(见第17.3节)。

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文