返回介绍

14.5 去噪自编码器详解

发布于 2024-01-20 12:27:18 字数 7113 浏览 0 评论 0 收藏 0

去噪自编码器(denoising autoencoder,DAE)是一类接受损坏数据作为输入,并训练来预测原始未被损坏数据作为输出的自编码器。

DAE的训练过程如图14.3所示。我们引入一个损坏过程,这个条件分布代表给定数据样本x产生损坏样本的概率。自编码器则根据以下过程,从训练数据对(x,)中学习重构分布(reconstruction distribution)preconstruct(x):

(1)从训练数据中采一个训练样本x

(2)从C(xx)采一个损坏样本

(3)将(x,)作为训练样本来估计自编码器的重构分布preconstruct(x)=pdecoder(xh),其中h是编码器f()的输出,pdecoder根据解码函数g(h)定义。

通常我们可以简单地对负对数似然−log pdecoder(xh)进行基于梯度法(如小批量梯度下降)的近似最小化。只要编码器是确定性的,去噪自编码器就是一个前馈网络,并且可以使用与其他前馈网络完全相同的方式进行训练。

图14.3 去噪自编码器代价函数的计算图。去噪自编码器被训练为从损坏的版本重构干净数据点x。这可以通过最小化损失L=−log pdecoder(xh=f())实现,其中是样本x经过损坏过程C(x)后得到的损坏版本。通常,分布pdecoder是因子的分布(平均参数由前馈网络g给出)

因此我们可以认为DAE是在以下期望下进行随机梯度下降:

其中是训练数据的分布。

14.5.1 得分估计

得分匹配(Hyvärinen,2005a)是最大似然的代替。它提供了概率分布的一致估计,促使模型在各个数据点x上获得与数据分布相同的得分(score)。在这种情况下,得分是一个特定的梯度场:

我们将在第18.4节中更详细地讨论得分匹配。对于现在讨论的自编码器,理解学习log pdata的梯度场是学习pdata结构的一种方式就足够了。

DAE的训练准则(条件高斯p(xh))能让自编码器学到能估计数据分布得分的向量场(g(f(x))−x),这是DAE的一个重要特性,具体如图14.4所示。

图14.4 去噪自编码器被训练为将损坏的数据点映射回原始数据点x。我们将训练样本x表示为位于低维流形(粗黑线)附近的红叉。我们用灰色圆圈表示等概率的损坏过程C(x)。灰色箭头演示了如何将一个训练样本转换为经过此损坏过程的样本。当训练去噪自编码器最小化平方误差的平均值时,重构g(f())估计。对可能产生的原始点x的质心进行估计,所以向量g(f())−近似指向流形上最近的点。因此自编码器可以学习由绿色箭头表示的向量场g(f(x))−x。该向量场将得分估计为一个乘性因子,即重构误差均方根的平均

对一类采用高斯噪声和均方误差作为重构误差的特定去噪自编码器(具有sigmoid隐藏单元和线性重构单元)的去噪训练过程,与训练一类特定的被称为RBM的无向概率模型是等价的(Vincent,2011)。这类模型将在第20.5.1节给出更详细的介绍;对于现在的讨论,我们只需知道这个模型能显式的给出pmodel(xθ)。当RBM使用去噪得分匹配(denoising score matching)算法(Kingma and LeCun,2010a)训练时,它的学习算法与训练对应的去噪自编码器是等价的。在一个确定的噪声水平下,正则化的得分匹配不是一致估计量,相反它会恢复分布的一个模糊版本。然而,当噪声水平趋向于0且训练样本数趋向与无穷时,一致性就会恢复。我们将会在第18.5节更详细地讨论去噪得分匹配。

自编码器和RBM还存在其他联系。在RBM上应用得分匹配后,其代价函数将等价于重构误差结合类似CAE惩罚的正则项(Swersky et al.,2011)。Bengio and Delalleau(2009)指出自编码器的梯度是对RBM对比散度训练的近似。

对于连续的x,高斯损坏和重构分布的去噪准则得到的得分估计适用于一般编码器和解码器的参数化(Alain and Bengio,2013)。这意味着一个使用平方误差准则

和噪声方差为σ2的损坏

的通用编码器-解码器架构可以用来训练估计得分。图14.5展示了其中的工作原理。

图14.5 由去噪自编码器围绕一维弯曲流形学习的向量场,其中数据集中在二维空间中。每个箭头与重构向量减去自编码器的输入向量后的向量成比例,并且根据隐式估计的概率分布指向较高的概率。向量场在估计的密度函数的最大值处(在数据流形上)和密度函数的最小值处都为零。例如,螺旋臂形成局部最大值彼此连接的一维流形。局部最小值出现在两个臂间隙的中间附近。当重构误差的范数(由箭头的长度示出)很大时,在箭头的方向上移动可以显著增加概率,并且在低概率的地方大多也是如此。自编码器将这些低概率点映射到较高的概率重构。在概率最大的情况下,重构变得更准确,因此箭头会收缩。经Alain and Bengio(2013)许可转载此图

一般情况下,不能保证重构函数g(f(x))减去输入x后对应于某个函数的梯度,更不用说得分。这是早期工作(Vincent,2011)专用于特定参数化的原因(其中g(f(x))−x能通过另一个函数的导数获得)。Kamyshanska and Memisevic(2015)通过标识一类特殊的浅层自编码器家族,使g(f(x))−x对应于这个家族所有成员的一个得分,以此推广Vincent(2011)的结果。

目前为止我们所讨论的仅限于去噪自编码器如何学习表示一个概率分布。更一般的,我们可能希望使用自编码器作为生成模型,并从其分布中进行采样。这将在第20.11节中讨论。

14.5.2 历史展望

采用MLP去噪的想法可以追溯到LeCun(1987)和Gallinari et al.(1987)的工作。Behnke(2001)也曾使用循环网络对图像去噪。在某种意义上,去噪自编码器仅仅是被训练去噪的MLP。然而,“去噪自编码器”的命名指的不仅仅是学习去噪,而且可以学到一个好的内部表示(作为学习去噪的副效用)。这个想法提出较晚(Vincent et al.,2008b,2010)。学习到的表示可以被用来预训练更深的无监督网络或监督网络。与稀疏自编码器、稀疏编码、收缩自编码器等正则化的自编码器类似,DAE的动机是允许学习容量很高的编码器,同时防止在编码器和解码器学习一个无用的恒等函数。

在引入现代DAE之前,Inayoshi and Kurita(2005)探索了其中一些相同的方法和目标。他们除了在监督目标的情况下最小化重构误差之外,还在监督MLP的隐藏层注入噪声,通过引入重构误差和注入噪声提升泛化能力。然而,他们的方法基于线性编码器,因此无法学习到现代DAE能学习的强大函数族。

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文