欧氏距离和余弦相似度

发布于 2024-10-14 13:03:27 字数 1764 浏览 17 评论 0

两者相同的地方,就是在机器学习中都可以用来计算相似度,但是两者的含义有很大差别,以我的理解就是:

  • 前者是看成坐标系中两个 ,来计算两点之间的 距离 ;
  • 后者是看成坐标系中两个 向量 ,来计算两向量之间的 夹角
  • 前者因为是 ,所以一般指 位置 上的差别,即 距离
  • 后者因为是 向量 ,所以一般指 方向 上的差别,即所成 夹角

如下图所示:

01

数据项 A 和 B 在坐标图中当做点时,两者相似度为距离 dist(A,B),可通过欧氏距离(也叫欧几里得距离)公式计算:

$$dist(X,Y)=\sqrt{\sum_{i=1}^{n}(X_i-Y_i)^2}$$

当做向量时,两者相似度为 cosθ,可通过余弦公式计算:

$$cos\theta = \frac{\sum_{i=1}^{n}(A_i \times B_i)}{\sqrt(\sum_{i=1}^{n}(A_i)^2) \times \sqrt(\sum_{i=1}^{n}(B_i)^2)}= \frac{A^T \cdot B}{||A||\times ||B||} $$

假设$||A||$、$||B||$表示向量 A、B 的 L2 范数,例如向量[1,2,3]的 2 范数为:

$$\sqrt{1^2+2^2=3^3} = \sqrt{14}$$

numpy 中提供了范数的计算工具: linalg.norm()

所以计算$cosθ$起来非常方便(假定 A、B 均为列向量):

num = float(A.T * B) #若为行向量则 A * B.T
denom = linalg.norm(A) * linalg.norm(B)
cos = num / denom #余弦值
sim = 0.5 + 0.5 * cos #归一化

因为有了 linalg.norm(),欧氏距离公式实现起来更为方便:

dist = linalg.norm(A - B)
sim = 1.0 / (1.0 + dist) #归一化

关于归一化:

因为余弦值的范围是 [-1,+1] ,相似度计算时一般需要把值归一化到 [0,1],一般通过如下方式:

$$sim = 0.5 + 0.5 * \cosθ $$

若在欧氏距离公式中,取值范围会很大,一般通过如下方式归一化:

$$sim = \frac{1}{1+dist(x,y)}$$

说完了原理,简单扯下实际意义,举个栗子吧:

例如某 T 恤从 100 块降到了 50 块(A(100,50)),某西装从 1000 块降到了 500 块(B(1000,500))

那么 T 恤和西装都是降价了 50%,两者的价格变动趋势一致,余弦相似度为最大值,即两者有很高的 变化趋势相似度

但是从商品价格本身的角度来说,两者相差了好几百块的差距,欧氏距离较大,即两者有较低的 价格相似度。

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据

关于作者

0 文章
0 评论
24 人气
更多

推荐作者

玍銹的英雄夢

文章 0 评论 0

我不会写诗

文章 0 评论 0

十六岁半

文章 0 评论 0

浸婚纱

文章 0 评论 0

qq_kJ6XkX

文章 0 评论 0

    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文