返回介绍

动机

发布于 2025-01-01 12:38:41 字数 3421 浏览 0 评论 0 收藏 0

回顾

  • 什么是 S VD?
  • SVD 有哪些应用?

额外的 SVD 应用

我最近遇到的一个有趣的 SVD 用法是为 Word2Vec 词嵌入消除偏见,来自 词嵌入中的量化和减少刻板印象 (Bolukbasi 等)。

Word2Vec 是 Google 发布的一个有用的库,它将单词表示为向量。 向量的相似性捕获了语义,并且可以找到类比,例如巴黎:法国::东京:日本。

来源: 词的向量表示

然而,这些嵌入可能隐式编码偏见,例如父亲:医生::母亲:护士,和男人:计算机程序员::女人:家庭主妇。

一种为空间消除偏见的方法涉及使用 SVD 来降低维数( Bolukbasi 论文 )。

你可以在词嵌入中阅读关于偏见的更多信息:

考虑 SVD 的方法

  • 数据压缩
  • SVD 使用更小更好的特征替换大量特征
  • 所有矩阵都是对角的(如果你使用基于域和范围的更改)

SVD 的视角

我们通常从矩阵的角度谈论 SVD,

A = U \Sigma V^T

但我们也可以用向量来思考它。 SVD 为我们提供了一组正交向量 v_ju_j

A v_j = \sigma_j u_j

σ_j 是标量,称为奇异值。

问题:这个让你想起了什么?

答案

SVD 与特征分解之间的关系: A 的左奇异向量是 AA^T 的特征向量。 A 的右奇异向量是 A^TA 的特征向量。 A 的非零奇异值是 A^TA(和 AA^T)的特征值的平方根。

SVD 是特征值分解的推广。 并非所有矩阵都具有特征值,但所有矩阵都具有奇异值。

让我们忘记 SVD,并讨论如何找到对称正定矩阵的特征值......

SVD 的扩展资源

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文