返回介绍

监控相关接口 - 集群健康状态

发布于 2020-06-28 10:03:45 字数 5552 浏览 1193 评论 0 收藏 0

说到 Elasticsearch 集群监控,首先我们肯定是需要一个从总体意义上的概要。不管是多大规模的集群,告诉我正常还是不正常?没错,集群健康状态接口就是用来回答这个问题的,而且这个接口的信息已经出于意料的丰富了。

命令示例

  1. # curl -XGET 127.0.0.1:9200/_cluster/health?pretty
  2. {
  3. "cluster_name" : "es1003",
  4. "status" : "green",
  5. "timed_out" : false,
  6. "number_of_nodes" : 38,
  7. "number_of_data_nodes" : 27,
  8. "active_primary_shards" : 1332,
  9. "active_shards" : 2381,
  10. "relocating_shards" : 0,
  11. "initializing_shards" : 0,
  12. "unassigned_shards" : 0,
  13. "number_of_pending_tasks" : 0
  14. "delayed_unassigned_shards" : 0,
  15. "number_of_in_flight_fetch" : 0,
  16. "task_max_waiting_in_queue_millis" : 0,
  17. "active_shards_percent_as_number" : 100.0
  18. }

状态信息

输出里最重要的就是 status 这行。很多开源的 ES 监控脚本,其实就是拿这行数据做报警判断。status 有三个可能的值:

  • green
    绿灯,所有分片都正确运行,集群非常健康。
  • yellow
    黄灯,所有主分片都正确运行,但是有副本分片缺失。这种情况意味着 ES 当前还是正常运行的,但是有一定风险。注意,在 Kibana4 的 server 端启动逻辑中,即使是黄灯状态,Kibana 4 也会拒绝启动,死循环等待集群状态变成绿灯后才能继续运行。
  • red
    红灯,有主分片缺失。这部分数据完全不可用。而考虑到 ES 在写入端是简单的取余算法,轮到这个分片上的数据也会持续写入报错。

对 Nagios 熟悉的读者,可以直接将这个红黄绿灯对应上 Nagios 体系中的 Critical,Warning,OK 。

其他数据解释

  • number_of_nodes 集群内的总节点数。
  • number_of_data_nodes 集群内的总数据节点数。
  • active_primary_shards 集群内所有索引的主分片总数。
  • active_shards 集群内所有索引的分片总数。
  • relocating_shards 正在迁移中的分片数。
  • initializing_shards 正在初始化的分片数。
  • unassigned_shards 未分配到具体节点上的分片数。
  • delayed_unassigned_shards 延时待分配到具体节点上的分片数。

显然,后面 4 项在正常情况下,一般都应该是 0。但是如果真的出来了长期非 0 的情况,怎么才能知道这些长期 unassign 或者 initialize 的分片影响的是哪个索引呢?本书随后还有有更多接口获取相关信息。不过在集群健康这层,本身就可以得到更详细一点的内容了。

level 请求参数

接口请求的时候,可以附加一个 level 参数,指定输出信息以 indices 还是 shards 级别显示。当然,一般来说,indices 级别就够了。

  1. # curl -XGET http://127.0.0.1:9200/_cluster/health?level=indices
  2. {
  3. "cluster_name": "es1003",
  4. "status": "red",
  5. "timed_out": false,
  6. "number_of_nodes": 38,
  7. "number_of_data_nodes": 27,
  8. "active_primary_shards": 1332,
  9. "active_shards": 2380,
  10. "relocating_shards": 0,
  11. "initializing_shards": 0,
  12. "unassigned_shards": 1
  13. "delayed_unassigned_shards" : 0,
  14. "number_of_in_flight_fetch" : 0,
  15. "task_max_waiting_in_queue_millis" : 0,
  16. "active_shards_percent_as_number" : 99.0
  17. "indices": {
  18. "logstash-2015.05.31": {
  19. "status": "green",
  20. "number_of_shards": 81,
  21. "number_of_replicas": 0,
  22. "active_primary_shards": 81,
  23. "active_shards": 81,
  24. "relocating_shards": 0,
  25. "initializing_shards": 0,
  26. "unassigned_shards": 0
  27. },
  28. "logstash-2015.05.30": {
  29. "status": "red",
  30. "number_of_shards": 81,
  31. "number_of_replicas": 0,
  32. "active_primary_shards": 80,
  33. "active_shards": 80,
  34. "relocating_shards": 0,
  35. "initializing_shards": 0,
  36. "unassigned_shards": 1
  37. },
  38. ...
  39. }
  40. }

这就看到了,是 logstash-2015.05.30 索引里,有一个分片一直未能成功分配,导致集群状态异常的。

不过,一般来说,集群健康接口,还是只用来简单监控一下集群状态是否正常。一旦收到异常报警,具体确定 unassign shard 的情况,更推荐使用 kopf 工具在页面查看。

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文