查看原文
其他

Elasticsearch运维宝典——监控实战篇

京东云 京东技术 2019-04-21

来这里找志同道合的小伙伴!

导语

Elasticsearch(文中简称 ES)是分布式全文搜索引擎,产品提供高可用、易扩展以及近实时的搜索能力,广泛应用于数据存储、搜索和实时分析。很多服务的可用性对 ES 重度依赖。因此,保障 ES 自身可用性,是实现服务高可用的重中之重。


基于京东云丰富的运维实战经验,接下来我们将陆续推出 ES 运维干货,欢迎小伙伴们持续关注。今天带来第一篇内容——Elasticsearch监控实战。


↓↓↓


监控,是服务可用性保障的关键之一。本文从运维角度,对 ES 服务监控进行了系统性总结,涵盖监控工具选型、监控采集项筛选介绍,最后列举了几个借助监控发现的ES线上问题。


ES监控概览


针对 ES 进行监控,主要期望解决这几种场景:

  • ES 日常服务巡检,帮助运维开发人员及时发现隐患

  • ES 服务异常后,帮助运维开发人员及时发现故障

  • 采集的 ES 监控指标,帮助运维开发人员迅速定位问题根因


能够及时发现ES服务异常,这是最主要目标。


监控工具选型


借助运维工具,在 ES 实际运维工作中能极大提升运维开发人员的工作效率。目前 ES 可用的监控工具或插件很多,对多种监控工具进行评测分析后,我们最终的监控工具选型为:


  • X-Pack+kibana


索引信息、集群整体信息很有帮助,尤其是各索引的索引、搜索速率,索引延迟数据等。其中,X-Pack 是官方给出的插件(Monitoring 为开放特性),需要注意的是,ES 集群上线前就需要安装 X-Pack 插件。图一展现了在 Kibana 中,Monitoring 的部分功能。


图一 Monitoring部分功能


  • Jmxtrans-ES+influxdb


主要进行核心数据采集、监控。ES 本身提供的 jmx 信息有限,这里使用了Jmxtrans-ES(自研)工具,通过 http 接口获取信息后,写入到 influxdb。ES 与 influxdb 的结合,官方给出的方案是读取 X-Pack 中的索引信息,考虑到 X-pack 索引是存储在 ES,保留时间有限,以及与京东云内部监控系统的对接,我们自研了 Jmxtrans-ES 工具进行核心信息采集,也自研了 ES-Monitor功能监控工具,仪表盘通过 Grafana 进行展现。图二展现了 ES 集群部分核心数据。


图二 ES集群部分核心数据


  • Elasticsearch-HQ


这款工具属于清新风格。之前使用的 head 插件,在集群规模达到一定程度后,head 插件信息展现不理想,因此使用了 HQ 代替 head 部分功能。如果很难记住管理 API,可以借助 ES-command 工具。图三展现了 ElasticHQ 管理界面。


图三 ElasticHQ管理界面


告警对接京东云内部告警平台。


采集项筛选


实战中,ES 集群部署使用 5.x 版本,区分协调(coordinating)、摄取(ingest)、主(master)、数据(data)等节点,独立部署,数据节点机器异构。


按照 SRE 黑盒监控和白盒监控进行分类:


1、黑盒监控


  • 集群功能


索引创建、删除、文档写入、查询等基本功能。实际监控中,创建索引时,需要控制好频率以及分片的分配情况。实战中,由于索引创建频率较高,并且分片数量设置不合理,导致集群 pending 任务堆积,导致正常业务创建索引出现大量延迟或失败。


  • 集群整体状态


理论上,集群正常状态为 green,出现 red 时,集群肯定存在部分索引主备分片全部丢失情况。集群状态为 yellow 时,也不能完全代表集群没有问题。比如,创建索引时,如果分片没有完全分配完成,也会出现 yellow 状态。因此,集群出现 yellow 时,也需要重点关注或排查集群可能存在的问题。


  • 活跃分片数百分比


  • Pending任务数


Pending任务数99%时间均为0,如果出现长时间为非0情况,集群肯定出现了异常。


2、白盒监控


1)容量


作为存储组件,对于存储容量的监控至关重要。


  • 总存储空间:ES 本身没有提供此方面监控数据,需要自行进行计算。


  • 已用存储空间:总存储空间是不能全部使用完,需要预留一部分空间。


  • 最大分区使用:在 ES 中,如果某数据节点单块数据目录使用率超过90%(默认值,可以通过 cluster.routing.allocation.disk.watermark 相关配置来调整),则会进行分片数据迁移。因此,在数据盘存在异构的集群中,为避免分片迁移,监控此值,至关重要。


  • 机器(或实例)资源(CPU、Load、Disk、JVM)


  • 分片数量:最好不超过一万个分片。官方推荐,单个实例 JVM 内存不超过30GB,不超过600个分片。另外,分片是由 Master 来维护其状态的,而 Master 在任何集群规模下,有且仅有一个节点在工作,其余均为候选主节点,因此分片数量越高,Master 常态的压力越大,故障后恢复的耗时也越长。合理的分片数量与集群节点数、写入数据量、磁盘读写性能等存在一定关系,具体可以参考官方说明。


  • 线程池队列长度


2)流量


  • 索引、搜索速率:需要监控总量,但是需要采集主要 index 的数据,便于问题定位。例如哪个索引突增流量将集群压垮了?如果没有细化的 index 的相关数据采集,就只能通过 index 的体积来进行间接判断,延时也类似。


  • 集群网络IO


  • 集群数据节点IO:实际部署中,会区分摄取(ingest)、主(master)、数据(data)等节点,这里重点监控数据节点IO。


3)延迟


  • 索引、搜索延迟


  • 慢查询


4)错误


  • 集群异常节点数


  • 索引、搜索拒绝数量


  • 主节点错误日志


借助监控发现的问题


场景1:


如果 Elasticsearch 集群出现问题,通过 ES 接口获取到的监控数据可能出现响应超时,无法响应情况,造成监控工具不可用。


发现方式:功能监控响应超时告警


优化建议:1)避免该场景出现:需要在日常巡检排查中,发现集群隐患,优化集群配置项,消除隐患;2)如果出现此问题:那么针对各实例的存活性,错误日志监控不可缺失,通过此监控信息快速定位。


场景2:


如果某数据节点任何一个数据目录不可用(比如磁盘故障,其他应用占满数据目录)则新建索引若有分片分配到上面之后,则会出现创建索引失败。


发现方式:功能监控告警、pending 任务堆积告警


优化建议:为避免此问题出现,数据盘可以做 raid5 或 raid10,避免多个服务共用同一数据目录等。当然数据目录的可用性,也需要有方法能够知道。


场景3:


某索引因程序问题,出现大量创建 type,导致集群异常。


发现方式:pending 任务堆积告警,之后排查各索引写入速率,找到异常索引


优化建议:定期排查重点索引的数据写入合理性,以及服务巡检。


附:


涉及的部分开源软件,Git地址

  • ElasticHQ:https://github.com/ElasticHQ/elasticsearch-HQ


部分运维脚本,Git地址

  • Elasticsearch Monitor:https://github.com/cloud-op/monitor


------------------END------------------

下面的内容同样精彩

点击图片即可阅读

京东技术

---关注技术的公众号

长按识别二维码关注

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存