- 1. 学习如何在你的电脑上配置OpenCV-Python环境!
- 1.1 开始了解OpenCV-Python
- 1.2 在 Windows 下安装 OpenCV-Python
- 1.3 在 Fedora 环境下安装 OpenCV-Python
- 1.4 在 Debian(Ubuntu)中配置 OpenCV-Python
- 1.5 在Docker中安装OpenCV-Python
- 1.6 在树莓派配置OpenCV-Python
- 2. OpenCV中的GUI功能
- 2.1 开始使用图像
- 2.2 开始使用视频
- 2.3 OpenCV 中的绘图函数
- 2.4 以鼠标为画笔
- 2.5 用滑块控制条做调色板
- 3. OpenCV中的GUI功能
- 3.1 图片基本操作
- 3.2 图像算术操作
- 3.3 性能评估与改进技巧
- 4. OpenCV中的图像处理
- 4.1 更换颜色空间
- 4.2 对图像进行几何变换
- 4.3 图像二值化处理
- 4.4 平滑图像
- 4.5 形态学转换
- 4.6 图像梯度
- 4.7 Canny边缘检测
- 4.8 图像金字塔
- 4.9.1 直方图:查找,绘制,分析
- 4.9.2 直方图均衡化
- 4.9.3 二维直方图
- 4.9.4 直方图反投影
- 4.10 OpenCV中的图像变换
- 4.10.1 傅立叶变换
- 4.11 模板匹配
- 4.12 霍夫直线变换
- 4.13 霍夫圆变换
- 4.14 基于分水岭算法的图像分割
- 4.14 使用 GrabCut 算法交互式前景提取
- 5. 特征检测和描述符
- 5.1 理解特征
- 5.2 Harris 角点检测
- 5.3 Shi-Tomasi 角点检测 & 适合用来跟踪的特征
- 5.4 介绍SIFT(尺度不变特征转换)
- 5.5 介绍SURF(加速稳健特征)
- 5.6 角点检测的FAST算法
- 5.7 BRIEF特征点描述算法
- 5.8 ORB 特征描述符(Oriented FAST and Rotated BRIEF)
- 5.9 特征匹配
- 5.10 特征匹配和使用单应性匹配来搜索物体
- 6. 视频分析
- 6.1 Meanshift和Camshift
- 6.2 光流
- 6.3 背景分割
- 7. 相机校准和3D重建
- 7.1 相机校准
- 7.2 姿势估计
- 7.3 极线几何
- 7.4 来自立体图像的深度图
- 8. 机器学习
- 8.1 K-最近邻算法
- 8.1.1 了解k-最近邻算法
- 8.1.2 使用kNN进行手写字符的OCR
- 8.2 支持向量机(SVM)
- 8.2.1 理解SVM
- 8.2.2 使用SVM的手写数据的OCR
- 8.3 K-Means聚类
- 8.3.1 理解 K-Means 聚类
- 8.3.2 OpenCV中的K-Means聚类
- 9. 计算摄影学
- 9.1 图像去噪
- 9.2 图像修复
- 9.3 高动态范围(HDR)
- 10. 目标检测
- 10.1 使用 Haar Cascades 的面部识别
- 11. OpenCV-Python 绑定
- 11.1 OpenCV-Python绑定如何工作?
8.3.1 理解 K-Means 聚类
目标
在本章中,我们将理解K均值聚类的概念,它是如何工作的等等。
理论基础
我们将用一个常用的例子来讲解这个问题。
T恤大小问题
考虑一家正在向市场推出新款T恤的公司。显然,他们将不得不制造不同大小的模型来满足各种身材的人。因此,公司提供了一个人的身高和体重的数据,并将其绘制在一张图上。
公司不能制作所有尺码的T恤。相反,他们把人们分为小,中,大三种尺寸,只制造出适合所有人的三种尺寸。这种把人分成三组的操作可以通过k-means聚类来完成,算法提供了最好的3个大小,这将满足所有的人。如果他没有让所有人满意,公司可以把人分成更多的组,可能是五个等等。
它是如何工作的 ?
这个算法是一个迭代的过程。我们将在图像的帮助下逐步解释它。
考虑下面的一组数据(你可以把它看作是T恤问题)。我们需要将这些数据分成两组。
步骤:1 - 算法随机选择两个质心,$C1$和$C2$(有时任意两个数据会被选为质心)。
步骤:2 - 计算从每个点到两个质心的距离。如果测试数据更多更接近C1,那么这个数据被标记为 0。如果它靠近 C2,则标记为1(如果有更多的质心,标记为2,3等)。在我们的例子中,我们将用红色标记所有0,用蓝色标记1。
第3步:接下来,我们分别计算所有蓝色点和红色点的平均值,这将是我们的新质心。这是 $C1$ 和 $C2$ 转移到新计算的质心。 (请记住,所显示的图像不是真正的值,也不是真正的比例尺,仅用于演示)。
再一次,执行步骤2,将新质心和标签数据设置为0和1。
现在迭代步骤-2和步骤03,直到两个质心收敛到固定点。 (或者根据我们提供的标准,例如最大迭代次数,或者达到特定的准确度等等。)这些点是这样的:测试数据与它们对应的质心之间的距离之和是最小的。或者简单地说,$C1 \leftrightarrow Red_Points$和C2 $C2 \leftrightarrow Blue_Points$ 之间的距离之和是最小的。
$$
minimize \;\bigg[J = \sum{All\: Red_Points}distance(C1,Red_Point) + \sum{All\: Blue_Points}distance(C2,Blue_Point)\bigg]
$$
所以这只是对 K-Means Clustering 的直观理解。有关更多详细信息和数学解释,请阅读任何标准机器学习教科书或查看其他资源中的链接。这只是 K-Means 聚类的最高层。这个算法有很多修改过的版本,比如如何选择初始质心,如何加快迭代过程等。
更多资源
机器学习课程 Video lectures by Prof. Andrew Ng(部分图片来源于此)
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论