返回介绍

13 -- Hazard of Overfitting

发布于 2025-01-20 23:27:27 字数 15443 浏览 0 评论 0 收藏 0

上节课我们主要介绍了非线性分类模型,通过非线性变换,将非线性模型映射到另一个空间,转换为线性模型,再来进行分类,分析了非线性变换可能会使计算复杂度增加。本节课介绍这种模型复杂度增加带来机器学习中一个很重要的问题:过拟合(overfitting)。

一、What is Overfitting?

首先,我们通过一个例子来介绍什么 bad generalization。假设平面上有 5 个点,目标函数 f(x) 是 2 阶多项式,如果 hypothesis 是二阶多项式加上一些小的 noise 的话,那么这 5 个点很靠近这个 hypothesis,很小。如果 hypothesis 是 4 阶多项式,那么这 5 点会完全落在 hypothesis 上,。虽然 4 阶 hypothesis 的比 2 阶 hypothesis 的要好很多,但是它的很大。因为根据 VC Bound 理论,阶数越大,即 VC Dimension 越大,就会让模型复杂度更高,更大。我们把这种很小,很大的情况称之为 bad generation,即泛化能力差。

我们回过头来看一下 VC 曲线:

hypothesis 的阶数越高,表示 VC Dimension 越大。随着 VC Dimension 增大,是一直减小的,而先减小后增大。在位置,取得最小值。在右侧,随着 VC Dimension 越来越大,越来越小,接近于 0,越来越大。即当 VC Dimension 很大的时候,这种对训练样本拟合过分好的情况称之为过拟合(overfitting)。另一方面,在左侧,随着 VC Dimension 越来越小,都越来越大,这种情况称之为欠拟合(underfitting),即模型对训练样本的拟合度太差,VC Dimension 太小了。

bad generation 和 overfitting 的关系可以理解为:overfitting 是 VC Dimension 过大的一个过程,bad generation 是 overfitting 的结果。

一个好的 fit,都比较小,尽管没有足够接近零;而对 overfitting 来说,,但是很大。那么,overfitting 的原因有哪些呢?

我们举个开车的例子,把发生车祸比作成 overfitting,那么造成车祸的原因包括:

  • 车速太快(VC Dimension 太大);
  • 道路崎岖(noise);
  • 对路况的了解程度(训练样本数量 N 不够);

也就是说,VC Dimension、noise、N 这三个因素是影响过拟合现象的关键。

二、The Role of Noise and Data Size

为了尽可能详细地解释 overfitting,我们进行这样一个实验,试验中的数据集不是很大。首先,在二维平面上,一个模型的分布由目标函数 f(x)(x 的 10 阶多项式)加上一些 noise 构成,下图中,离散的圆圈是数据集,目标函数是蓝色的曲线。数据没有完全落在曲线上,是因为加入了 noise。

然后,同样在二维平面上,另一个模型的分布由目标函数 f(x)(x 的 50 阶多项式)构成,没有加入 noise。下图中,离散的圆圈是数据集,目标函数是蓝色的曲线。可以看出由于没有 noise,数据集完全落在曲线上。

现在,有两个学习模型,一个是 2 阶多项式,另一个是 10 阶多项式,分别对上面两个问题进行建模。首先,对于第一个目标函数是 10 阶多项式包含 noise 的问题,这两个学习模型的效果如下图所示:

由上图可知,2 阶多项式的学习模型;10 阶多项式的学习模型。虽然 10 阶模型的比 2 阶的小,但是其要比 2 阶的大得多,而 2 阶的相差不大,很明显用 10 阶的模型发生了过拟合。

然后,对于第二个目标函数是 50 阶多项式没有 noise 的问题,这两个学习模型的效果如下图所示:

由上图可知,2 阶多项式的学习模型;10 阶多项式的学习模型。虽然 10 阶模型的比 2 阶的小,但是其要比 2 阶的大得多的多,而 2 阶的相差不大,很明显用 10 阶的模型仍然发生了明显的过拟合。

上面两个问题中,10 阶模型都发生了过拟合,反而 2 阶的模型却表现得相对不错。这好像违背了我们的第一感觉,比如对于目标函数是 10 阶多项式,加上 noise 的模型,按道理来说应该是 10 阶的模型更能接近于目标函数,因为它们阶数相同。但是,事实却是 2 阶模型泛化能力更强。这种现象产生的原因,从哲学上来说,就是“以退为进”。有时候,简单的学习模型反而能表现的更好。

下面从 learning curve 来分析一下具体的原因,learning curve 描述的是随着数据量 N 的变化趋势。下图中左边是 2 阶学习模型的 learning curve,右边是 10 阶学习模型的 learning curve。

我们的第 9 次课的笔记 NTU 林轩田机器学习基石课程学习笔记 9 – Linear Regression 已经介绍过了 learning curve。在 learning curve 中,横轴是样本数量 N,纵轴是 Error。可表示为:

其中 d 为模型阶次,左图中 d=2,右图中 d=10。

本节的实验问题中,数据量 N 不大,即对应于上图中的灰色区域。左图的灰色区域中,因为 d=2,相对来说比较接近;右图中的灰色区域中,d=10,根据的表达式,很小,而很大。这就解释了之前 2 阶多项式模型的更接近,泛化能力更好。

值得一提的是,如果数据量 N 很大的时候,上面两图中都比较接近,但是对于高阶模型,z 域中的特征很多的时候,需要的样本数量 N 很大,且容易发生维度灾难。关于维度灾难的详细生动解释,请参考我另一篇博文:

机器学习中的维度灾难

另一个例子中,目标函数是 50 阶多项式,且没有加入 noise。这种情况下,我们发现仍然是 2 阶的模型拟合的效果更好一些,明明没有 noise,为什么是这样的结果呢?

实际上,我们忽略了一个问题:这种情况真的没有 noise 吗?其实,当模型很复杂的时候,即 50 阶多项式的目标函数,无论是 2 阶模型还是 10 阶模型,都不能学习的很好,这种复杂度本身就会引入一种‘noise’。所以,这种高阶无 noise 的问题,也可以类似于 10 阶多项式的目标函数加上 noise 的情况,只是二者的 noise 有些许不同,下面一部分将会详细解释。

三、Deterministic Noise

下面我们介绍一个更细节的实验来说明 什么时候小心 overfit 会发生。假设我们产生的数据分布由两部分组成:第一部分是目标函数 f(x),阶多项式;第二部分是噪声,服从 Gaussian 分布。接下来我们分析的是 noise 强度不同对 overfitting 有什么样的影响。总共的数据量是 N。

那么下面我们分析不同的对 overfit 的影响。overfit 可以量化为。结果如下:

上图中,红色越深,代表 overfit 程度越高,蓝色越深,代表 overfit 程度越低。先看左边的图,左图中阶数固定为 20,横坐标代表样本数量 N,纵坐标代表噪声水平。红色区域集中在 N 很小或者很大的时候,也就是说 N 越大,越小,越不容易发生 overfit。右边图中,横坐标代表样本数量 N,纵坐标代表目标函数阶数。红色区域集中在 N 很小或者很大的时候,也就是说 N 越大,越小,越不容易发生 overfit。上面两图基本相似。

从上面的分析,我们发现对 overfit 是有很大的影响的,我们把这种 noise 称之为 stochastic noise。同样地,即模型复杂度也对 overfit 有很大影响,而且二者影响是相似的,所以我们把这种称之为 deterministic noise。之所以把它称为 noise,是因为模型高复杂度带来的影响。

总结一下,有四个因素会导致发生 overfitting:

  • data size N
  • stochastic noise
  • deterministic noise
  • excessive power

我们刚才解释了如果目标函数 f(x) 的复杂度很高的时候,那么跟有 noise 也没有什么两样。因为目标函数很复杂,那么再好的 hypothesis 都会跟它有一些差距,我们把这种差距称之为 deterministic noise。deterministic noise 与 stochastic noise 不同,但是效果一样。其实 deterministic noise 类似于一个伪随机数发生器,它不会产生真正的随机数,而只产生伪随机数。它的值与 hypothesis 有关,且固定点 x 的 deterministic noise 值是固定的。

四、Dealing with Overfitting

现在我们知道了什么是 overfitting,和 overfitting 产生的原因,那么如何避免 overfitting 呢?避免 overfitting 的方法主要包括:

  • start from simple model
  • data cleaning/pruning
  • data hinting
  • regularization
  • validataion

这几种方法类比于之前举的开车的例子,对应如下:

regularization 和 validation 我们之后的课程再介绍,本节课主要介绍简单的 data cleaning/pruning 和 data hinting 两种方法。

data cleaning/pruning 就是对训练数据集里 label 明显错误的样本进行修正(data cleaning),或者对错误的样本看成是 noise,进行剔除(data pruning)。data cleaning/pruning 关键在于如何准确寻找 label 错误的点或者是 noise 的点,而且如果这些点相比训练样本 N 很小的话,这种处理效果不太明显。

data hinting 是针对 N 不够大的情况,如果没有办法获得更多的训练集,那么 data hinting 就可以对已知的样本进行简单的处理、变换,从而获得更多的样本。举个例子,数字分类问题,可以对已知的数字图片进行轻微的平移或者旋转,从而让 N 丰富起来,达到扩大训练集的目的。这种额外获得的例子称之为 virtual examples。但是要注意一点的就是,新获取的 virtual examples 可能不再是 iid 某个 distribution。所以新构建的 virtual examples 要尽量合理,且是独立同分布的。

五、总结

本节课主要介绍了 overfitting 的概念,即当很小,很大的时候,会出现 overfitting。详细介绍了 overfitting 发生的四个常见原因 data size N、stochastic noise、deterministic noise 和 excessive power。解决 overfitting 的方法有很多,本节课主要介绍了 data cleaning/pruning 和 data hinting 两种简单的方法,之后的课程将会详细介绍 regularization 和 validataion 两种更重要的方法。

注明:

文章中所有的图片均来自台湾大学林轩田《机器学习基石》课程

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文