- 序言
- 云原生
- Kubernetes 架构
- Kubernetes 中的网络
- Pod 状态与生命周期管理
- 集群资源管理
- 控制器
- 服务发现
- 身份与权限控制
- 存储
- 集群扩展
- 资源调度
- 用户指南
- 资源对象配置
- 命令使用
- 集群安全性管理
- 访问 Kubernetes 集群
- 在 Kubernetes 中开发部署应用
- 最佳实践概览
- 在 CentOS 上部署 Kubernetes 集群
- 生产级的 Kubernetes 简化管理工具kubeadm
- 服务发现与负载均衡
- 运维管理
- 存储管理
- 集群与应用监控
- 分布式跟踪
- 服务编排管理
- 持续集成与发布
- 更新与升级
- 领域应用概览
- 微服务架构
- Service Mesh 服务网格
- 大数据
- Serverless架构
- 边缘计算
- 人工智能
- 开发指南
- CNCF
- 附录说明
分布式负载测试
分布式负载测试
该教程描述如何在Kubernetes中进行分布式负载均衡测试,包括一个web应用、docker镜像和Kubernetes controllers/services。关于分布式负载测试的更多资料请查看Distributed Load Testing Using Kubernetes 。
准备
不需要GCE及其他组件,你只需要有一个kubernetes集群即可。
如果你还没有kubernetes集群,可以参考kubernetes-handbook部署一个。
部署Web应用
本文中使用的镜像、kubernetes应用的yaml配置来自我的另一个项目,请参考:https://github.com/rootsongjc/distributed-load-testing-using-kubernetes
sample-webapp
目录下包含一个简单的web测试应用。我们将其构建为docker镜像,在kubernetes中运行。你可以自己构建,也可以直接用这个我构建好的镜像index.tenxcloud.com/jimmy/k8s-sample-webapp:latest
。
在kubernetes上部署sample-webapp。
$ git clone https://github.com/rootsongjc/distributed-load-testing-using-kubernetes.git
$ cd kubernetes-config
$ kubectl create -f sample-webapp-controller.yaml
$ kubectl create -f sample-webapp-service.yaml
部署Locust的Controller和Service
locust-master
和locust-work
使用同样的docker镜像,修改cotnroller中spec.template.spec.containers.env
字段中的value为你sample-webapp
service的名字。
- name: TARGET_HOST
value: http://sample-webapp:8000
创建Controller Docker镜像(可选)
locust-master
和locust-work
controller使用的都是locust-tasks
docker镜像。你可以直接下载gcr.io/cloud-solutions-images/locust-tasks
,也可以自己编译。自己编译大概要花几分钟时间,镜像大小为820M。
$ docker build -t index.tenxcloud.com/jimmy/locust-tasks:latest .
$ docker push index.tenxcloud.com/jimmy/locust-tasks:latest
注意:我使用的是时速云的镜像仓库。
每个controller的yaml的spec.template.spec.containers.image
字段指定的是我的镜像:
image: index.tenxcloud.com/jimmy/locust-tasks:latest
部署locust-master
$ kubectl create -f locust-master-controller.yaml
$ kubectl create -f locust-master-service.yaml
部署locust-worker
Now deploy locust-worker-controller
:
$ kubectl create -f locust-worker-controller.yaml
你可以很轻易的给work扩容,通过命令行方式:
$ kubectl scale --replicas=20 replicationcontrollers locust-worker
当然你也可以通过WebUI:Dashboard - Workloads - Replication Controllers - ServiceName - Scale来扩容。
配置Traefik
参考kubernetes的traefik ingress安装,在ingress.yaml
中加入如下配置:
- host: traefik.locust.io
http:
paths:
- path: /
backend:
serviceName: locust-master
servicePort: 8089
然后执行kubectl replace -f ingress.yaml
即可更新traefik。
通过Traefik的dashboard就可以看到刚增加的traefik.locust.io
节点。
执行测试
打开http://traefik.locust.io
页面,点击Edit
输入伪造的用户数和用户每秒发送的请求个数,点击Start Swarming
就可以开始测试了。
在测试过程中调整sample-webapp
的pod个数(默认设置了1个pod),观察pod的负载变化情况。
从一段时间的观察中可以看到负载被平均分配给了3个pod。
在locust的页面中可以实时观察也可以下载测试结果。
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论