返回介绍

数学基础

统计学习

深度学习

工具

Scala

四、支持向量回归

发布于 2023-07-17 23:38:26 字数 4418 浏览 0 评论 0 收藏 0

  1. 支持向量机不仅可以用于分类问题,也可以用于回归问题。

  2. 给定训练数据集 $ MathJax-Element-511 $ ,其中 $ MathJax-Element-340 $ 。

    • 对于样本 $ MathJax-Element-365 $ ,传统的回归模型通常基于模型输出 $ MathJax-Element-357 $ 与真实输出 $ MathJax-Element-358 $ 之间的差别来计算损失。当且仅当 $ MathJax-Element-357 $ 与 $ MathJax-Element-358 $ 完全相同时,损失才为零。

    • 支持向量回归(Support Vector Regression:SVR)不同:它假设能容忍 $ MathJax-Element-357 $ 与 $ MathJax-Element-358 $ 之间最多有 $ MathJax-Element-366 $ 的偏差。仅当 $ MathJax-Element-349 $ 时,才计算损失。

      支持向量回归相当于以 $ MathJax-Element-357 $ 为中心,构建了一个宽度为 $ MathJax-Element-351 $ 的间隔带。若训练样本落在此间隔带内则被认为是预测正确的。

4.1 原始问题

  1. SVR问题形式化为:

    $ f(\mathbf{\vec x})=\mathbf{\vec w}\cdot \mathbf{\vec x}+b\\ \min_{\mathbf{\vec w},b}\frac 12 ||\mathbf{\vec w}||_2^{2}+C\sum_{i=1}^{N}L_\epsilon\left(f(\mathbf{\vec x}_i)-\tilde y_i\right) $

    其中:

    • $ MathJax-Element-504 $ 为罚项常数。

      • 若 $ MathJax-Element-504 $ 较大,则倾向于 $ MathJax-Element-357 $ 与 $ MathJax-Element-358 $ 之间较小的偏差
      • 若 $ MathJax-Element-504 $ 较小,则能容忍 $ MathJax-Element-357 $ 与 $ MathJax-Element-358 $ 之间较大的偏差
    • $ MathJax-Element-359 $ 为损失函数。其定义为:

      $ L_\epsilon(z)=\begin{cases} 0&, \text{if} |z| \le \epsilon\\ |z|-\epsilon&,\text{else} \end{cases} $

      线性回归中,损失函数为 $ MathJax-Element-360 $

      L_epsilon

  2. 引入松弛变量 $ MathJax-Element-361 $ ,将上式写做:

    $ \min_{\mathbf{ \vec w},b,\xi_i,\hat\xi_i}\frac 12 ||\mathbf{\vec w}||_2^{2}+C\sum_{i=1}^{N} (\xi_i+\hat \xi_i)\\ s.t. f(\mathbf{\vec x}_i)-\tilde y_i \le \epsilon+\xi_i,\\ \tilde y_i-f(\mathbf{\vec x}_i) \le \epsilon+\hat\xi_i,\\ \xi_i \ge 0,\hat\xi_i \ge 0, i=1,2,\cdots,N $

    这就是 SVR原始问题。

4.2 对偶问题

  1. 引入拉格朗日乘子, $ MathJax-Element-362 $ ,定义拉格朗日函数:

    $ L(\mathbf{\vec w},b,\vec\alpha,\hat{\vec\alpha},\vec\xi,\hat{\vec\xi},\vec\mu,\hat{\vec\mu}) =\frac 12 ||\mathbf{\vec w}||_2^{2}+C\sum_{i=1}^{N}( \xi_i+\hat\xi_i)-\sum_{i=1}^{N}\mu_i\xi_i-\sum_{i-1}^{N}\hat\mu_i\hat\xi_i\\ +\sum_{i=1}^{N}\alpha_i\left( f(\mathbf{\vec x}_i)-\tilde y_i-\epsilon-\xi_i \right)+\sum_{i-1}^{N}\hat\alpha_i\left(\tilde y_i-f(\mathbf{\vec x}_i)-\epsilon-\hat\xi_i\right) $

    根据拉格朗日对偶性,原始问题的对偶问题是极大极小问题:

    $ \max_{\vec\alpha,\hat{\vec\alpha}}\min_{\mathbf {\vec w},b,\vec\xi,\hat{\vec\xi}}L(\mathbf{\vec w},b,\vec\alpha,\hat{\vec\alpha},\vec\xi,\hat{\vec\xi},\vec\mu,\hat{\vec\mu}) $
  2. 先求极小问题:根据 $ MathJax-Element-363 $ 对 $ MathJax-Element-364 $ 偏导数为零可得:

    $ \mathbf {\vec w}=\sum_{i=1}^{N}(\hat \alpha_i-\alpha_i)\mathbf{\vec x}_i\\ 0=\sum_{i=1}^{N}(\hat \alpha_i-\alpha_i)\\ C=\alpha_i+\mu_i\\ C=\hat\alpha_i+\hat\mu_i $
  3. 再求极大问题(取负号变极小问题):

    $ \min_{\vec\alpha,\hat{\vec\alpha}} \sum_{i=1}^{N}\left[\tilde y_i(\hat\alpha_i-\alpha_i)-\epsilon(\hat\alpha_i+\alpha_i)\right]-\frac 12 \sum_{i=1}^{N}\sum_{j=1}^{N}(\hat\alpha_i-\alpha_i)(\hat\alpha_j-\alpha_j)\mathbf{\vec x}_i^{T}\mathbf{\vec x}_j\\ s.t. \sum_{i=1}^{N}(\hat\alpha_i-\alpha_i)=0\\ 0 \le \alpha_i,\hat\alpha_i \le C $
  4. 上述过程需要满足KKT条件,即:

    $ \begin{cases} \alpha_i\left( f(\mathbf{\vec x}_i)-\tilde y_i-\epsilon-\xi_i \right)=0\\ \hat\alpha_i\left(\tilde y_i-f(\mathbf{\vec x}_i)-\epsilon-\hat\xi_i\right)=0\\ \alpha_i\hat\alpha_i=0\\ \xi_i\hat\xi_i=0\\ (C-\alpha_i)\xi_i=0\\ (C-\hat\alpha_i)\hat\xi_i=0 \end{cases} $
  5. 可以看出:

    • 当样本 $ MathJax-Element-365 $ 不落入 $ MathJax-Element-366 $ 间隔带中时,对应的 $ MathJax-Element-374 $ 才能取非零值:

      • 当且仅当 $ MathJax-Element-372 $ 时, $ MathJax-Element-369 $ 能取非零值
      • 当且仅当 $ MathJax-Element-373 $ 时, $ MathJax-Element-371 $ 能取非零值
    • 此外约束 $ MathJax-Element-372 $ 与 $ MathJax-Element-373 $ 不能同时成立,因此 $ MathJax-Element-374 $ 中至少一个为零。

  6. 设最终解 $ MathJax-Element-519 $ 中,存在 $ MathJax-Element-376 $ ,则有:

    $ b=\tilde y_j+\epsilon-\sum_{i=1}^{N}(\hat\alpha_i-\alpha_j)\mathbf{\vec x}_i^{T}\mathbf{\vec x}_j\\ f(\mathbf {\vec x})=\sum_{i=1}^{N}(\hat\alpha_i-\alpha_i)\mathbf{\vec x}_i^{T}\mathbf{\vec x}+b $
  7. 最后若考虑使用核技巧,则SVR可以表示为: $ MathJax-Element-377 $ 。

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文