- 1. 学习如何在你的电脑上配置OpenCV-Python环境!
- 1.1 开始了解OpenCV-Python
- 1.2 在 Windows 下安装 OpenCV-Python
- 1.3 在 Fedora 环境下安装 OpenCV-Python
- 1.4 在 Debian(Ubuntu)中配置 OpenCV-Python
- 1.5 在Docker中安装OpenCV-Python
- 1.6 在树莓派配置OpenCV-Python
- 2. OpenCV中的GUI功能
- 2.1 开始使用图像
- 2.2 开始使用视频
- 2.3 OpenCV 中的绘图函数
- 2.4 以鼠标为画笔
- 2.5 用滑块控制条做调色板
- 3. OpenCV中的GUI功能
- 3.1 图片基本操作
- 3.2 图像算术操作
- 3.3 性能评估与改进技巧
- 4. OpenCV中的图像处理
- 4.1 更换颜色空间
- 4.2 对图像进行几何变换
- 4.3 图像二值化处理
- 4.4 平滑图像
- 4.5 形态学转换
- 4.6 图像梯度
- 4.7 Canny边缘检测
- 4.8 图像金字塔
- 4.9.1 直方图:查找,绘制,分析
- 4.9.2 直方图均衡化
- 4.9.3 二维直方图
- 4.9.4 直方图反投影
- 4.10 OpenCV中的图像变换
- 4.10.1 傅立叶变换
- 4.11 模板匹配
- 4.12 霍夫直线变换
- 4.13 霍夫圆变换
- 4.14 基于分水岭算法的图像分割
- 4.14 使用 GrabCut 算法交互式前景提取
- 5. 特征检测和描述符
- 5.1 理解特征
- 5.2 Harris 角点检测
- 5.3 Shi-Tomasi 角点检测 & 适合用来跟踪的特征
- 5.4 介绍SIFT(尺度不变特征转换)
- 5.5 介绍SURF(加速稳健特征)
- 5.6 角点检测的FAST算法
- 5.7 BRIEF特征点描述算法
- 5.8 ORB 特征描述符(Oriented FAST and Rotated BRIEF)
- 5.9 特征匹配
- 5.10 特征匹配和使用单应性匹配来搜索物体
- 6. 视频分析
- 6.1 Meanshift和Camshift
- 6.2 光流
- 6.3 背景分割
- 7. 相机校准和3D重建
- 7.1 相机校准
- 7.2 姿势估计
- 7.3 极线几何
- 7.4 来自立体图像的深度图
- 8. 机器学习
- 8.1 K-最近邻算法
- 8.1.1 了解k-最近邻算法
- 8.1.2 使用kNN进行手写字符的OCR
- 8.2 支持向量机(SVM)
- 8.2.1 理解SVM
- 8.2.2 使用SVM的手写数据的OCR
- 8.3 K-Means聚类
- 8.3.1 理解 K-Means 聚类
- 8.3.2 OpenCV中的K-Means聚类
- 9. 计算摄影学
- 9.1 图像去噪
- 9.2 图像修复
- 9.3 高动态范围(HDR)
- 10. 目标检测
- 10.1 使用 Haar Cascades 的面部识别
- 11. OpenCV-Python 绑定
- 11.1 OpenCV-Python绑定如何工作?
8.3.2 OpenCV中的K-Means聚类
目标
学习在 OpenCV 中使用 cv2.kmeans()
函数进行数据聚类
了解参数
输入参数
samples
:应该是 np.float32
数据类型,每个特征应放在一个单独的列中。
nclusters
(K):结束时所需的集群数量
criteria
:这是迭代终止标准。当满足这个标准时,算法迭代停止。其实它应该是一个3个参数的元组。他们是(type,max_iter,epsilon)
:
type
- 终止标准的类型。它有3个标志如下:cv2.TERM_CRITERIA_EPS
- 如果达到了指定的精度epsilon
,则停止算法迭代。cv2.TERM_CRITERIA_MAX_ITER
- 在指定的迭代次数max_iter
之后停止算法。cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER
- 当满足上述任何条件时停止迭代。
max_iter
- 指定最大迭代次数的整数。epsilon
- 所需的准确性
attempts
:标志来指定使用不同的起始标签执行算法的次数。该算法返回产生最佳紧凑性的标签。这种紧凑性作为输出返回。
flags:这个标志用于指定如何初始中心。通常使用两个标志:cv2.KMEANS_PP_CENTERS
和cv2.KMEANS_RANDOM_CENTERS
。
输出参数
compactness
:它是从每个点到相应中心的平方距离的总和。labels
:这是标签数组(与上一篇文章中的'代码'部分相同)每个元素标记为“0”,“1”......centers
:这是集群中心的数组。
现在我们来看看如何应用K-Means算法和三个例子。
只有一个特征的数据
考虑一下,你有一组数据只有一个特征,即一维。例如,我们可以把T恤衫的问题简化成你只用身高来决定T恤衫的大小。
所以我们首先创建数据并将其绘制在Matplotlib中
import numpy as np
import cv2
from matplotlib import pyplot as plt
x = np.random.randint(25,100,25)
y = np.random.randint(175,255,25)
z = np.hstack((x,y))
z = z.reshape((50,1))
z = np.float32(z)
plt.hist(z,256,[0,256]),plt.show()
所以我们有一个大小为 50,数值范围从0到255的数组 z。我已经将 z 重新整形成一个列向量。当存在多个特征时,它将会更有用。然后我让data是np.float32类型的数据。
现在我们应用 KMeans 函数。在此之前,我们需要指定标准。我的标准是,算法每迭代运行10次,或着达到1.0的精度,就停止算法并返回答案。
# 定义终止条件
criteria = ( type, max_iter = 10 , epsilon = 1.0 )
criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 10, 1.0)
# 设置flags
flags = cv2.KMEANS_RANDOM_CENTERS
# 应用KMeans
compactness,labels,centers = cv2.kmeans(z,2,None,criteria,10,flags)
这给了我们compactness,labels和centers。在这种情况下,我得到的centers为60和207。标签将具有与测试数据相同的大小,其中每个数据将根据其质心标记为“0”,“1”,“2”等。现在我们根据其标签将数据分成不同的群集。
A = z[labels==0]
B = z[labels==1]
现在我们绘制红色的A和蓝色的B,以黄色绘制它们的质心。
# 现在用红色标出'A',用蓝色标出'B',用黄色标出'中心'
plt.hist(A,256,[0,256],color = 'r')
plt.hist(B,256,[0,256],color = 'b')
plt.hist(centers,32,[0,256],color = 'y')
plt.show()
具有多个特征的数据在前面的例子中,我们只考虑了T恤问题中的身高。在这里,我们将采取身高和体重,即两个特征。
请记住,在以前的情况下,我们将数据转换为一个列向量。每个功能按列排列,每行对应一个输入测试样本。
例如,在这种情况下,我们设置一个大小为50x2的测试数据,这个数据是50人的高度和权重。第一列对应于所有50人的身高,第二列对应于他们的体重。第一行包含两个元素,第一个是第一个人的高度,第二个是他的体重。同样剩下的行对应于其他人的身高和体重。
我直接上代码了:
import cv2
from matplotlib import pyplot as plt
X = np.random.randint(25,50,(25,2))
Y = np.random.randint(60,85,(25,2))
Z = np.vstack((X,Y))
# 转换为np.float32
Z = np.float32(Z)
# 定义终止条件,应用kmeans算法
criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 10, 1.0)
ret,label,center=cv2.kmeans(Z,2,None,criteria,10,cv2.KMEANS_RANDOM_CENTERS)
# 现在将数据分开
A = Z[label.ravel()==0]
B = Z[label.ravel()==1]
# 绘制数据
plt.scatter(A[:,0],A[:,1])
plt.scatter(B[:,0],B[:,1],c = 'r')
plt.scatter(center[:,0],center[:,1],s = 80,c = 'y', marker = 's')
plt.xlabel('Height'),plt.ylabel('Weight')
plt.show()
颜色量化色彩量化是减少图像中颜色数量的过程。 这样做的一个原因是减少内存。 有些时候,有些设备可能会有限制,只能生成有限数量的颜色。 在这些情况下,也需要进行颜色量化。 这里我们使用k-means聚类进行颜色量化。
这里没有什么新东西可以解释。 有3个特征,比如R,G,B。 所以我们需要将图像重塑为一个Mx3大小的数组(M是图像中的像素数)。 在聚类之后,我们将质心值(也是R,G,B)应用于所有像素,从而得到的图像将具有指定数量的颜色。 接着我们需要将其重新塑造成原始图像的形状。
下面是代码:
import numpy as np
import cv2
img = cv2.imread('home.jpg')
Z = img.reshape((-1,3))
# 转换到np.float32
Z = np.float32(Z)
# 定义标准,聚类数量K并应用KMeans
criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 10, 1.0)
K = 8
ret,label,center=cv2.kmeans(Z,K,None,criteria,10,cv2.KMEANS_RANDOM_CENTERS)
# 转回uint8,放入原图像
center = np.uint8(center)
res = center[label.flatten()]
res2 = res.reshape((img.shape))
cv2.imshow('res2',res2)
cv2.waitKey(0)
cv2.destroyAllWindows()
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论