日志聚合和可视化

标签(空格分隔): 架构 日志 聚合


一、背景需求&常见方案

1、日志分类和作用

image.png
image.png

2、传统日志管理方案&存在的问题

image.png

现代日志管理和分析解决方案包括以下主要功能:

  • 聚合 - 从多个数据源收集和发送日志的能力。
  • 处理 - 将日志消息转换为有意义的数据以便于分析的能力。
  • 存储 - 能够在延长的时间段内存储数据,以便进行监控,趋势分析和安全用例。
  • 分析 - 通过查询数据并在其上创建可视化和仪表板来分析数据的能力。

3、常用日志聚合方案

  1. Elastic Stack(ELK)

    ELK,即 Elasticsearch、Logstash 和 Kibana 简称,是最流行的开源日志聚合工具。它被 Netflix、Facebook、微软、LinkedIn 和思科使用。这三个组件都是由 Elastic 开发和维护的。Elasticsearch 本质上是一个 NoSQL 数据库,以 Lucene 搜索引擎实现的。Logstash 是一个日志管道系统,可以接收数据,转换数据,并将其加载到像 Elasticsearch 这样的应用中。Kibana 是 Elasticsearch 之上的可视化层。

    几年前,引入了 Beats 。Beats 是数据采集器。它们简化了将数据运送到 Logstash 的过程。用户不需要了解每种日志的正确语法,而是可以安装一个 Beats 来正确导出 NGINX 日志或 Envoy 代理日志,以便在 Elasticsearch 中有效地使用它们。

  1. Graylog

    Graylog 最近越来越受欢迎,但它是在 2010 年由 Lennart Koopmann 创建并开发的。两年后,一家公司以同样的名字诞生了。尽管它的使用者越来越多,但仍然远远落后于 ELK 套件。这也意味着它具有较少的社区开发特征,但是它可以使用与 ELK 套件相同的 Beats 。由于 Graylog Collector Sidecar 使用 Go 编写,所以 Graylog 在 Go 社区赢得了赞誉。

    Graylog 使用 Elasticsearch、MongoDB 和底层的 Graylog Server 。这使得它像 ELK 套件一样复杂,也许还要复杂一些。然而,Graylog 附带了内置于开源版本中的报警功能,以及其他一些值得注意的功能,如流、消息重写和地理定位。

  1. Fluentd

    FluentdTreasure Data 开发的,CNCF 已经将它作为一个孵化项目。它是用 C 和 Ruby 编写的,并被 AWSGoogle Cloud 所推荐。Fluentd 已经成为许多系统中 logstach 的常用替代品。它可以作为一个本地聚合器,收集所有节点日志并将其发送到中央存储系统。它不是日志聚合系统。

image.png
  1. 阿里云日志服务(云计算)


    image.png

4、日志采集工具对比

Logstash

Logstash 不是这个列表里最老的传输工具(最老的应该是 syslog-ng ,讽刺的是它也是唯一一个名字里带有 new 的),但 Logstash 绝对可以称得上最有名的。因为它有很多插件:输入、编解码器、过滤器以及输出。基本上,可以获取并丰富任何数据,然后将它们推送到多种目标存储。

  • 优势

Logstash 主要的有点就是它的灵活性,这还主要因为它有很多插件。然后它清楚的文档已经直白的配置格式让它可以再多种场景下应用。这样的良性循环让我们可以在网上找到很多资源,几乎可以处理任何问题。

  • 劣势

Logstash 致命的问题是它的性能以及资源消耗(默认的堆大小是 1GB)。尽管它的性能在近几年已经有很大提升,与它的替代者们相比还是要慢很多的。这里有 Logstash 与 rsyslog 性能对比以及Logstash 与 filebeat 的性能对比。它在大数据量的情况下会是个问题。

另一个问题是它目前不支持缓存,目前的典型替代方案是将 Redis 或 Kafka 作为中心缓冲池。

  • 典型应用场景

因为 Logstash 自身的灵活性以及网络上丰富的资料,Logstash 适用于原型验证阶段使用,或者解析非常的复杂的时候。在不考虑服务器资源的情况下,如果服务器的性能足够好,我们也可以为每台服务器安装 Logstash 。我们也不需要使用缓冲,因为文件自身就有缓冲的行为,而 Logstash 也会记住上次处理的位置。

如果服务器性能较差,并不推荐为每个服务器安装 Logstash ,这样就需要一个轻量的日志传输工具,将数据从服务器端经由一个或多个 Logstash 中心服务器传输到 Elasticsearch。

随着日志项目的推进,可能会因为性能或代价的问题,需要调整日志传输的方式(log shipper)。当判断 Logstash 的性能是否足够好时,重要的是对吞吐量的需求有着准确的估计,这也决定了需要为 Logstash 投入多少硬件资源。

Filebeat

作为 Beats 家族的一员,Filebeat 是一个轻量级的日志传输工具,它的存在正弥补了 Logstash 的缺点:Filebeat 作为一个轻量级的日志传输工具可以将日志推送到中心 Logstash。

在版本 5.x 中,Elasticsearch 具有解析的能力(像 Logstash 过滤器)— Ingest。这也就意味着可以将数据直接用 Filebeat 推送到 Elasticsearch,并让 Elasticsearch 既做解析的事情,又做存储的事情。也不需要使用缓冲,因为 Filebeat 也会和 Logstash 一样记住上次读取的偏移:

如果需要缓冲(例如,不希望将日志服务器的文件系统填满),可以使用 Redis/Kafka,因为 Filebeat 可以与它们进行通信:

  • 优势

Filebeat 只是一个二进制文件没有任何依赖。它占用资源极少,尽管它还十分年轻,正式因为它简单,所以几乎没有什么可以出错的地方,所以它的可靠性还是很高的。它也为我们提供了很多可以调节的点,例如:它以何种方式搜索新的文件,以及当文件有一段时间没有发生变化时,何时选择关闭文件句柄。

  • 劣势

Filebeat 的应用范围十分有限,所以在某些场景下我们会碰到问题。例如,如果使用 Logstash 作为下游管道,我们同样会遇到性能问题。正因为如此,Filebeat 的范围在扩大。开始时,它只能将日志发送到 Logstash 和 Elasticsearch,而现在它可以将日志发送给 Kafka 和 Redis,在 5.x 版本中,它还具备过滤的能力。

  • 典型应用场景

Filebeat 在解决某些特定的问题时:日志存于文件,我们希望将日志直接传输存储到 Elasticsearch。这仅在我们只是抓去(grep)它们或者日志是存于 JSON 格式(Filebeat 可以解析 JSON)。或者如果打算使用 Elasticsearch 的 Ingest 功能对日志进行解析和丰富。

将日志发送到 Kafka/Redis。所以另外一个传输工具(例如,Logstash 或自定义的 Kafka 消费者)可以进一步丰富和转发。这里假设选择的下游传输工具能够满足我们对功能和性能的要求。

Fluentd

Fluentd 创建的初衷主要是尽可能的使用 JSON 作为日志输出,所以传输工具及其下游的传输线不需要猜测子字符串里面各个字段的类型。这样,它为几乎所有的语言都提供库,这也意味着,我们可以将它插入到我们自定义的程序中。

  • 优势

和多数 Logstash 插件一样,Fluentd 插件是用 Ruby 语言开发的非常易于编写维护。所以它数量很多,几乎所有的源和目标存储都有插件(各个插件的成熟度也不太一样)。这也意味这我们可以用 Fluentd 来串联所有的东西。

  • 劣势

因为在多数应用场景下,我们会通过 Fluentd 得到结构化的数据,它的灵活性并不好。但是我们仍然可以通过正则表达式,来解析非结构化的数据。尽管,性能在大多数场景下都很好,但它并不是最好的,和 syslog-ng 一样,它的缓冲只存在与输出端,单线程核心以及 Ruby GIL 实现的插件意味着它大的节点下性能是受限的,不过,它的资源消耗在大多数场景下是可以接受的。对于小的或者嵌入式的设备,可能需要看看 Fluent Bit,它和 Fluentd 的关系与 Filebeat 和 Logstash 之间的关系类似

  • 典型应用场景

Fluentd 在日志的数据源和目标存储各种各样时非常合适,因为它有很多插件。而且,如果大多数数据源都是自定义的应用,所以可以发现用 fluentd 的库要比将日志库与其他传输工具结合起来要容易很多。特别是在我们的应用是多种语言编写的时候,即我们使用了多种日志库,日志的行为也不太一样。

Logagent

Logagent 是 Sematext 提供的传输工具,它用来将日志传输到 Logsene(一个基于 SaaS 平台的 Elasticsearch API),因为 Logsene 会暴露 Elasticsearch API,所以 Logagent 可以很容易将数据推送到 Elasticsearch 。

  • 优势

可以获取 /var/log 下的所有信息,解析各种格式(Elasticsearch,Solr,MongoDB,Apache HTTPD等等),它可以掩盖敏感的数据信息,例如,个人验证信息(PII),出生年月日,信用卡号码,等等。它还可以基于 IP 做 GeoIP 丰富地理位置信息(例如,access logs)。同样,它轻量又快速,可以将其置入任何日志块中。在新的 2.0 版本中,它以第三方 node.js 模块化方式增加了支持对输入输出的处理插件。重要的是 Logagent 有本地缓冲,所以不像 Logstash ,在数据传输目的地不可用时会丢失日志。

  • 劣势

尽管 Logagent 有些比较有意思的功能(例如,接收 Heroku 或 CloudFoundry 日志),但是它并没有 Logstash 灵活

  • 典型应用场景

Logagent 作为一个可以做所有事情的传输工具是值得选择的(提取、解析、缓冲和传输)。

logtail

阿里云日志服务的生产者,目前在阿里集团内部机器上运行,经过3年多时间的考验,目前为阿里公有云用户提供日志收集服务。

采用C++语言实现,对稳定性、资源控制、管理等下过很大的功夫,性能良好。相比于logstash、fluentd的社区支持,logtail功能较为单一,专注日志收集功能。

  • 优势

logtail占用机器cpu、内存资源最少,结合阿里云日志服务的E2E体验良好。

  • 劣势

logtail目前对特定日志类型解析的支持较弱,后续需要把这一块补起来。

rsyslog

绝大多数 Linux 发布版本默认的 syslog 守护进程,rsyslog 可以做的不仅仅是将日志从 syslog socket 读取并写入 /var/log/messages 。它可以提取文件、解析、缓冲(磁盘和内存)以及将它们传输到多个目的地,包括 Elasticsearch 。可以从此处找到如何处理 Apache 以及系统日志。

  • 优势

rsyslog 是经测试过的最快的传输工具。如果只是将它作为一个简单的 router/shipper 使用,几乎所有的机器都会受带宽的限制,但是它非常擅长处理解析多个规则。它基于语法的模块(mmnormalize)无论规则数目如何增加,它的处理速度始终是线性增长的。这也就意味着,如果当规则在 20-30 条时,如解析 Cisco 日志时,它的性能可以大大超过基于正则式解析的 grok ,达到 100 倍(当然,这也取决于 grok 的实现以及 liblognorm 的版本)。

它同时也是我们能找到的最轻的解析器,当然这也取决于我们配置的缓冲。

  • 劣势

rsyslog 的配置工作需要更大的代价(这里有一些例子),这让两件事情非常困难:

文档难以搜索和阅读,特别是那些对术语比较陌生的开发者。

5.x 以上的版本格式不太一样(它扩展了 syslogd 的配置格式,同时也仍然支持旧的格式),尽管新的格式可以兼容旧格式,但是新的特性(例如,Elasticsearch 的输出)只在新的配置下才有效,然后旧的插件(例如,Postgres 输出)只在旧格式下支持。

尽管在配置稳定的情况下,rsyslog 是可靠的(它自身也提供多种配置方式,最终都可以获得相同的结果),它还是存在一些 bug 。

  • 典型应用场景

rsyslog 适合那些非常轻的应用(应用,小VM,Docker容器)。如果需要在另一个传输工具(例如,Logstash)中进行处理,可以直接通过 TCP 转发 JSON ,或者连接 Kafka/Redis 缓冲。

rsyslog 还适合我们对性能有着非常严格的要求时,特别是在有多个解析规则时。那么这就值得为之投入更多的时间研究它的配置。

syslog-ng

可以将 syslog-ng 当作 rsyslog 的替代品(尽管历史上它们是两种不同的方式)。它也是一个模块化的 syslog 守护进程,但是它可以做的事情要比 syslog 多。它可以接收磁盘缓冲并将 Elasticsearch HTTP 作为输出。它使用 PatternDB 作为语法解析的基础,作为 Elasticsearch 的传输工具,它是一个不错的选择。

  • 优势

和 rsyslog 一样,作为一个轻量级的传输工具,它的性能也非常好。它曾经比 rsyslog 慢很多,但是 2 年前能达到 570K Logs/s 的性能并不差。并不像 rsyslog ,它有着明确一致的配置格式以及完好的文档。

  • 劣势

Linux 发布版本转向使用 rsyslog 的原因是 syslog-ng 高级版曾经有很多功能在开源版中都存在,但是后来又有所限制。我们这里只关注与开源版本,所有的日志传输工具都是开源的。现在又有所变化,例如磁盘缓冲,曾经是高级版存在的特性,现在开源版也有。但有些特性,例如带有应用层的通知的可靠传输协议(reliable delivery protocol)还没有在开源版本中。

  • 典型应用场景

和 rsyslog 类似,可能将 syslog-ng 部署在资源受限的环境中,但仍希望它能在处理复杂计算时有着良好的性能。如果使用 rsyslog ,它可以输出至 Kafka ,以 Kafka 作为一个中心队列,并以 Logstash 作为一个自定义消费者。

不同的是,syslog-ng 使用起来比 rsyslog 更容易,性能没有 rsyslog 那么极致:例如,它只对输出进行缓冲,所以它所有的计算处理在缓冲之前就完成了,这也意味着它会给日志流带来压力。

二、Elastic Stack

1、产品架构&介绍

1.1 传统ELK

直到一两年前,ELK Stack是三个开源产品的集合 - ElasticsearchLogstashKibana全部由Elastic开发,管理和维护。

下载 (1).png

Logstash在JVM上运行并消耗大量资源来执行此操作。关于Logstash显着的内存消耗,许多讨论都在浮动。显然,当您想要从小型机器(例如AWS微实例)发送日志而不损害应用程序性能时,这可能是一个巨大的挑战。

1.2 从ELK到BELK(Elastic Stack)

最新版本的Logstash和ELk Stack已经改善了这种固有的弱点。使用Filebeat和/或Elasticsearch Ingest Node,可以将一些处理外包给堆栈中的其他组件。您还可以使用监视API来识别瓶颈和有问题的处理。

Logstash的Java执行引擎(在版本6.3中公布为试验版)默认在版本7.x中启用。它取代了旧的Ruby执行引擎,拥有更好的性能,更少的内存使用和整体 - 更快的体验。

Beats的引入和后续添加将堆栈变成了一个四脚的项目,并导致堆栈重命名为Elastic Stack。

下载.png
image.png

其它参考:Elastic发展历程

1.3 Elastic Stack生态

image.png
Jietu20190602-112754.jpg

订阅 · Elastic Stack 产品和支持 | Elastic

2、部署Elastic Stack最简方案

Beats平台设置最简单的架构包括一个或多个Beats,Elasticsearch和Kibana。这种架构易于入门,足以满足低流量网络的需求。它还使用最少量的服务器:运行Elasticsearch和Kibana的单台机器。Beats将事务直接插入Elasticsearch实例。

但是,如果要对数据执行其他处理或缓冲,则需要安装Logstash。

image.png

本节介绍部署Elastic Stack最简方案:Filebeat+Elasticsearch+Kibana方案,示例使用Filebeat收集应用日志文件,通过Elasticsearch的pipeline进行字段摄取再进行存储,最后使用Kibana进行可视化查询。

应用日志内容示例,它存在单行的日志,也存在包含堆栈的多行日志:

[2019-05-30 15:25:23.609] [logging_demo] [pool-2-thread-2] INFO  ylz.test.TimerTaskFactory - 这是一个info log, tick: 1559201123609
[2019-05-30 15:25:23.609] [logging_demo] [pool-2-thread-4] ERROR ylz.test.TimerTaskFactory - 运行时异常:
java.lang.Exception: 这是一个error log, tick: 1559201123609
    at ylz.test.TimerTaskFactory$2.run(TimerTaskFactory.java:28)
    at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)
    at java.util.concurrent.FutureTask.runAndReset(FutureTask.java:308)
    at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$301(ScheduledThreadPoolExecutor.java:180)
    at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:294)
    at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
    at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
    at java.lang.Thread.run(Thread.java:745)

2.1 安装&启动Elasticsearch

下载安装包:https://www.elastic.co/cn/downloads/elasticsearch

命令行启动:

linux & Mac:
./bin/elasticsearch

守护进程启动&关闭:

./bin/elasticsearch -d -p pid
pkill -F pid

访问端口(默认):http://localhost:9200/

2.2 安装&启动Kibana

下载安装包:https://www.elastic.co/cn/downloads/kibana

命令行启动:

> linux & Mac:
./bin/kibana

> windows:
.\bin\kibana.bat

访问端口(默认):http://localhost:5601

2.3 安装&启动FileBeat

下载安装包:https://www.elastic.co/downloads/beats/filebeat

配置./filebeat.yml:

filebeat.inputs:
- type: log
  enabled: true
  paths:
    ### 此处配置需要收集的日志路径
    - /Users/ivan/Projects/logging_demo/logs/*.log
output.elasticsearch:
  hosts: ["127.0.0.1:9200"]

启动filebeat:

> linux:
./filebeat -e

启动完毕后,可在Kibana中看到的结果:

image.png

2.4 Kibana操作介绍

Kibana几个常用菜单:

image.png
  • Managemnt

Management
The Management application is where you perform your runtime configuration of Kibana, including both the initial setup and ongoing configuration of index patterns, advanced settings that tweak the behaviors of Kibana itself, and the various "objects" that you can save throughout Kibana such as searches, visualizations, and dashboards.

Management是您执行Kibana的运行时配置的地方,包括索引模式的初始设置和持续配置,调整Kibana本身行为的高级设置,以及您可以在整个Kibana中保存的各种“对象”,例如搜索,可视化和仪表板。

    使用Beats或LogStash采集数据到Elasticsearch后,可在Index Management中看到指定名称的Index:

image.png

Kibana使用Index Pattern从ElasticSearch索引中检索诸如可视化之类的数据,因此在使用Discover前,需要先创建Create index pattern:

image.png
  • Discover

Discover
Discover enables you to explore your data with Kibana’s data discovery functions. You have access to every document in every index that matches the selected index pattern. You can submit search queries, filter the search results, and view document data. You can also see the number of documents that match the search query and get field value statistics. If a time field is configured for the selected index pattern, the distribution of documents over time is displayed in a histogram at the top of the page.

Discover使您可以使用Kibana的数据发现功能探索数据。您可以访问与所选索引模式匹配的每个索引中的每个文档。您可以提交搜索查询,过滤搜索结果以及查看文档数据。您还可以查看与搜索查询匹配的文档数量并获取字段值统计信息。如果为所选索引模式配置了时间字段,则文档随时间的分布将显示在页面顶部的直方图中。

KQL查询语法

查询数据时,可以使用KQL(Kibana Query Language)查询语法,它支持全文搜索、关系运算等功能,搜索结果中关键字也会高亮显示:

image.png
  • Dev Tools

Console使您可以与Elasticsearch的REST API进行交互。

image.png

在数据处理管道中使用之前,您可以在Kibana Grok Debugger中构建和调试grok模式。

image.png
  • Visualize

Visualize使您可以在Elasticsearch索引中创建数据的可视化。然后,您可以构建显示相关可视化的Dashboard。

  • Dashboard

Kibana Dashboard显示Visualize和搜索的集合。

  • Monitoring

Monitoring功能提供了一种有效方法,让您能够密切关注 Elasticsearch、Kibana、Beats 和 Logstash 的运行状况和性能。它的仪表板集合能够帮助您在各个层级上评估仪表板的状态,同时为您提供所有必要的信息,让您始终最大限度地发挥 Elastic Stack 的作用。
借助强大的 Alerting 功能,自动获知集群中的任何更改——所有 Elasticsearch、Kibana 和 Logstash 中的集群状态、授权过期情况或其他监测指标。
Monitoring 主要特性免费提供。Alerting功能为非基础许可证所有功能。

3、进阶

目前方案下在Kibana中查看到的日志存在如下问题:

  1. 包含堆栈的多行日志被按行记录为多笔日志
  2. 日志内容全部记录在单个message字段上,没有按日志内容的含义提取到不同的字段进行存储,不利于查询

3.1 管理多行消息

Manage multiline messages
The files harvested by Filebeat may contain messages that span multiple lines of text. For example, multiline messages are common in files that contain Java stack traces. In order to correctly handle these multiline events, you need to configure multiline settings in the filebeat.yml file to specify which lines are part of a single event.

由filebeat收集的文件可能包含跨多行文本的消息。例如,多行消息在包含Java堆栈跟踪的文件中是常见的。为了正确处理这些多行事件,需要在filebeat.yml文件中配置多行设置,以指定哪些行是单个事件的一部分。

filebeat.ymlfilebeat.inputs配置节下添加如下配置:

filebeat.inputs:
  ...
  ### Multiline options
  multiline.pattern: ^\[
  multiline.negate: true
  multiline.match: after

3.2 使用Ingest Node解析数据

Parse data by using ingest node
When you use Elasticsearch for output, you can configure Filebeat to use ingest node to pre-process documents before the actual indexing takes place in Elasticsearch. Ingest node is a convenient processing option when you want to do some extra processing on your data, but you do not require the full power of Logstash. For example, you can create an ingest node pipeline in Elasticsearch that consists of one processor that removes a field in a document followed by another processor that renames a field.

使用Elasticsearch进行输出时,可以将Filebeat配置为使用 摄取节点在Elasticsearch中进行实际索引之前预处理文档。当您想对数据进行一些额外处理时,摄取节点是一个方便的处理选项,但您不需要Logstash的全部功能。例如,您可以在Elasticsearch中创建一个摄取节点管道,该管道由一个处理器组成,该处理器删除文档中的字段,然后是另一个重命名字段的处理器。

ingest node
Use an ingest node to pre-process documents before the actual document indexing happens. The ingest node intercepts bulk and index requests, it applies transformations, and it then passes the documents back to the index or bulk APIs.

使用摄取节点在实际文档索引发生之前预处理文档。摄取节点拦截批量和索引请求,应用转换,然后将文档传递回索引或批量API。

image.png

要在索引前预处理文档,请定义指定一系列处理器的管道。每个处理器都以某种特定的方式转换文档。

image.png

新增一个json文件,如app-log-pipeline.json

{
  "description" : "app-log-pipeline",
  "processors" : [
    {
      ### 从文档中的单个文本字段message中提取结构化字段
      "grok" : {
        "field" : "message",
        "patterns" :["\\[%{TIMESTAMP_ISO8601:timestamp}\\] \\[%{WORD:topic}\\] \\[%{DATA:thread}\\] %{WORD:level} (?<msg>[\\s\\S]*)"]
      }
    }
  ]
}

有关grok processor语法的说法,详见下面3.3章节Grok。

通过API接口在Elasticsearch中添加管道:

### 如果elasticsearch启用了身份验证,则需要再加上参数`--user username:password`
curl -H 'Content-Type: application/json' -XPUT 'http://localhost:9200/_ingest/pipeline/app-log-pipeline' -d@/work/app-log-pipeline.json

修改Beat配置文件:

output.elasticsearch:
  ...
  ### 指定管道
  pipeline: "app-log-pipeline"

调整后,在Kibana中看到的结果:

image.png

3.3 Grok

Grok是迄今为止使蹩脚的、非结构化的日志结构化和可查询的最好方式。Grok在解析 syslog logs、apache and other webserver logs、mysql logs等任意格式的文件上表现完美。

在LogStash的Grok Filter、Elasticsearch的Grok Processor中都使用到了Grok。

在上节中的app-log-pipeline.json中,我们使用了Grok Processor将非结构化事件数据message解析为多个字段timestamp、topic、thread、level、msg:

      ### 从文档中的单个文本字段message中提取结构化字段
      "grok" : {
        "field" : "message",
        "patterns" :["\\[%{TIMESTAMP_ISO8601:timestamp}\\] \\[%{WORD:topic}\\] \\[%{DATA:thread}\\] %{WORD:level} (?<msg>[\\s\\S]*)"]
      }

Grok内置了120多种的正则表达式库,源代码地址:https://github.com/logstash-plugins/logstash-patterns-core/tree/master/patterns

也可以通过自定义正则表达式和命名分组直接摄取字段,如上面示例中通过(?<msg>[\\s\\S]*)摄取字段msg

提示:在数据处理管道中使用之前,您可以在Kibana Grok Debugger中构建和调试grok模式。

3.4 Processors/Filter

除了Grok Processor/Filter,经常还需要用到其它的一些Processor/Filter,如geoid、date、user_agent、remove等,示例如下:

{
  "description" : "apache-log-pipeline",
  "processors" : [
    {
      ### 从文档中的单个文本字段message中提取结构化字段
      "grok" : {
        "field" : "message",
        "patterns" :["%{IPORHOST:clientip} %{USER:ident} %{USER:auth} \\[%{HTTPDATE:timestamp}\\] \"%{WORD:verb} %{DATA:request} HTTP/%{NUMBER:httpversion}\" %{NUMBER:response:int} (?:-|%{NUMBER:bytes:int}) %{QS:referrer} %{QS:useragent}"]
      },
      ### 添加关于IP地址的地理位置信息(基于MaxMind数据库中的数据)
      "geoip" : {
        "field" : "clientip",
        "target_field": "geo"
      },
      ### 解析字段中的日期,然后使用日期或时间戳作为文档的时间戳
      "date" : {
        "field" : "timestamp",
        "target_field" : "@timestamp",
        "formats" : ["dd/MMM/yyyy:HH:mm:ss Z"],
        "timezone" : "Asia/Shanghai"
      },
      ### 从浏览器发送Web请求中所述的user_agent字符串中提取细节信息
      "user_agent" : {
        "field" : "useragent"
      },
      ### 删除现有字段
      "remove": {
        "field": "message"
      }
    }
  ]
}

Processors

Filter plugins

详见Filter plugins

4、引入缓冲机制

如果您要追踪问题并查看一组日志,则只需要一个缺少的日志即可能得不到正确的结果。如果您丢失了其中一个事件,则可能无法查明问题的原因。

Elasticsearch是ELK核心的引擎。它非常容易受到负载,这意味着在索引和增加文档数量时需要非常小心。当Elasticsearch忙碌时,Logstash的工作速度比平常慢 - 这是缓冲区累积了更多即将推送到Elasticsearch的文档。这对于丢失日志事件至关重要。

一般来说,生产级ELK实现需要:

  • 必须确保捕获每个到日志事件
  • 在生产系统过载甚至失败时运行

确保弹性数据管道的推荐方法是在Logstash前面放置一个缓冲区,作为发送到系统的所有日志事件的入口点。然后它将缓冲数据,直到下游组件有足够的资源来索引。

常见缓冲区是Redis或Kafka。

image.png

引入消息队列中间件作为缓冲,beats采集到的数据先输出到消息队列中,再由logstash作为队列的消费者进行数据处理后,输出到elasticsearch。

出于说明的目的,这当然是简化图。完整的生产级体系结构将包含多个Elasticsearch节点,可能包含多个Logstash实例、归档机制、警报插件以及跨数据中心区域或部分的完全复制,以实现高可用性。

image.png

4.1 redis方案

  • 安装启动redis

linux: https://redis.io/download
windows: https://github.com/microsoftarchive/redis/releases

  • 配置filebeat.yml

output.redis:
  hosts: ["127.0.0.1:6379"]
  password: "123456"
  key: "filebeat-redis"
  db: 0
  timeout: 5
  • 配置logstash.confinputoutput节:

input {
  redis {
    host => "127.0.0.1"
    port => "6379"
    password => "123456"
    data_type => "list"
    db => 0
    batch_count => 1
    #type => "log"
    key => "filebeat-redis"
  }
}

# filter {
#  ...
# }

output {
  elasticsearch {
    hosts => "localhost:9200"
    manage_template => false
    index => "%{[@metadata][beat]}-redis-%{[@metadata][version]}-%{+YYYY.MM.dd}"
    pipeline => "app-log-pipeline"
  }
}

4.2 kafka方案

  • 安装启动zookeeper

https://zookeeper.apache.org/doc/current/zookeeperStarted.html

  • 安装启动Kafka

https://kafka.apache.org/quickstart

  • 配置filebeat.yml

output.kafka:
  # initial brokers for reading cluster metadata
  hosts: ["localhost:9092"] #["kafka1:9092", "kafka2:9092", "kafka3:9092"]

  # message topic selection + partitioning
  topic: "filebeat-kafka" #'%{[fields.log_topic]}'
  partition.round_robin:
    reachable_only: false

  required_acks: 1
  compression: gzip
  max_message_bytes: 1000000
  • 配置logstash.confinputoutput节:

input {
  kafka {
    bootstrap_servers => "localhost:9092"
    topics => "filebeat-kafka"
    group_id => "logstash"
  }
}

filter {  
  grok {    
      match => {
         "message" => "\[%{TIMESTAMP_ISO8601:timestamp}\] \[%{WORD:topic}\] \[%{DATA:thread}\] %{WORD:level} (?<msg>[\s\S]*)"
      }
  }
}

output {
  elasticsearch {
    hosts => "localhost:9200"
    manage_template => false
    index => "filebeat-kafka-%{+YYYY.MM.dd}"
    # pipeline => "app-log-pipeline"
  }
}

4.3 使用Logstash限流

为了防止异常终止期间的数据丢失,Logstash具有持久队列功能,该功能将消息队列存储在磁盘上。启用持久队列的好处如下:

  • 在正常关闭期间以及Logstash异常终止时提供至少一次传递保证以防止消息丢失。如果在事件发生时重新启动Logstash,Logstash将尝试传递存储在持久队列中的消息,直到传递成功至少一次。
  • 无需像Redis或Apache Kafka这样的外部缓冲机制即可吸收突发事件
image.png

配置示例:

queue.type: persisted
queue.max_bytes: 4gb

当队列已满时,Logstash会对input端施加Back-Pressure,以阻止流入Logstash的数据。这种机制有助于Logstash控制输入阶段的数据流速率,而不会压倒性地输出到output端(如Elasticsearch)。

5、其它最佳实践

5.1 使用Security增加访问安全性

5.1.1 身份验证-安全登录

    要想保护流经 Elasticsearch、Kibana、Beats 和 Logstash 的数据,以免数据受到意外修改或被未经授权用户的访问,这是第一步。

xpack.security.enabled: true
### 需要额外设置此选项,否则启动时会报错
xpack.security.transport.ssl.enabled: true
./bin/elasticsearch-setup-passwords interactive

如果您不介意在配置文件中显示密码,请取消注释并更新kibana.yml

elasticsearch.username: "kibana"
elasticsearch.password: "123456"

如果您不想将用户ID和密码放在kibana.yml文件中,请将它们存储在密钥库中

./bin/kibana-keystore create
./bin/kibana-keystore add elasticsearch.username
./bin/kibana-keystore add elasticsearch.password

此后,登录Kibana将出现登录页面,需要输入内置的超级用户权限帐号elastic进行登录。

image.png

5.1.2 授权-管理用户和角色

交付给用户使用时,一般会创建最小权限的用户,示例:
Management / Security中创建用户,并分配分配kibana_user内置角色。

如果您不介意在配置文件中显示密码,请 在Logstash目录中的文件中添加以下内容user和password设置demo-metrics-pipeline.conf:

...
output {
  elasticsearch {
    ...
    user => "logstash_system" 
    password => "123456" 
  }
}

如果您不想将您的用户ID和密码放在配置文件中,请将它们存储在密钥库中。

set +o history
export LOGSTASH_KEYSTORE_PASS=mypassword 
set -o history
./bin/logstash-keystore create
./bin/logstash-keystore add ES_USER
./bin/logstash-keystore add ES_PWD
output {
  elasticsearch {
    ...
    user => "${ES_USER}"
    password => "${ES_PWD}"
  }
}
  • 在filebeat中添加用户信息

如果您不介意在配置文件中显示密码,请 在Logstash目录中的文件中添加以下内容user和password设置demo-metrics-pipeline.conf:

...
output {
  elasticsearch {
    ...
    user => "logstash_system" 
    password => "123456" 
  }
}

如果您不想将您的密码放在配置文件中,请将它们存储在密钥库中。

filebeat keystore create
filebeat keystore add ES_PWD
output {
  elasticsearch {
    ...
    user => "logstash_system"
    password => "${ES_PWD}"
  }
}

注意:
如果您直接从Metricbeat连接到Elasticsearch,则需要在Metricbeat配置文件中为Elasticsearch输出配置身份验证凭据。在 入门弹性堆栈,但是,你配置Metricbeat发送数据到Logstash额外的解析,所以在Metricbeat不需要额外的设置。

参考:Tutorial: Getting started with security

以下功能为非基础许可证所有功能,详见:订阅 · Elastic Stack 产品和支持 | Elastic

  • 加密-防止嗅探、篡改和监听
  • 分层安全-全方位保护,直到字段级
  • 审核日志-记录何人何时做过何事
  • 合规性-符合安全标准

5.2 管理索引的生命周期

Index Lifecycle Management (ILM) 使您能够自动化您希望随着时间的推移来管理你的索引。您可以将操作基于其他因素(如分片大小和性能要求),而不是简单地在设置的计划上对索引执行管理操作。
您可以通过将生命周期策略附加到用于创建索引模板的索引模板来控制索引在老化时的处理方式。您可以更新策略以修改新索引和现有索引的生命周期。

对于时间序列索引,索引生命周期中有四个阶段:

阶段 说明
Hot 索引正在积极更新和查询。
Warm 索引不再更新,但仍在查询中。
Cold 索引不再被更新,很少被查询。信息仍然需要搜索,但如果这些查询速度较慢也没关系。
Delete 不再需要索引,可以安全删除。
setup.ilm.enabled: auto
setup.ilm.rollover_alias: "filebeat"
setup.ilm.pattern: "{now/d}-000001"
setup.ilm.policy_name: "filebeat-{agent.version}" # default value
  • Kibana中可视化配置生命周期管理

通过Elasticsearch的开放API接口,可设置索引生命周期管理策略。使用Kibana管理界面可实现同样的效果:

Management / Index Lifecycle Policies中创建和编辑生命周期策略:

image.png

Management / Index management中设置索引对应的Lifecycle Policy:

image.png

5.3 自定义输出到Elasticsearch的Index Name

由于系统默认启用ILM(详见 Index Lifecycle Management (ILM) ),Filebeat的output.elasticsearch.index配置项将会被覆盖,因此可以使用如下配置自定义输出elasticsearch index(详见Filebeat配置索引生命周期管理):

### customize index name
setup.ilm.rollover_alias: "applog"
setup.ilm.pattern: "{now/d}-000001"

output.elasticsearch:
  ...
  # index: "applog-%{[agent.version]}-%{+yyyy.MM.dd}"

5.4 Elasticsearch设置JVM选项

Elasticsearch有三个配置文件,这些文件位于config目录中:

  • elasticsearch.yml 用于配置Elasticsearch
  • jvm.options 用于配置Elasticsearch JVM设置
  • log4j2.properties 用于配置Elasticsearch日志记录

一般很少需要更改Java虚拟机(JVM)选项,最可能的更改是设置堆大小

-Xms1g
-Xmx1g

5.5 监控Logstash / Elasticsearch异常

前面提到过,如果您要追踪问题并查看一组日志,则只需要一个缺少的日志即可能得不到正确的结果。

尝试索引Elasticsearch中无法适应自动生成的映射的日志时,Logstash可能会失败。
Elasticsearch不会为文档编制索引,它只会返回失败消息并且日志将被删除。

为了确保捕获每个到日志事件,必须始终向Logstash提供信息并监视Elasticsearch异常, 以确保日志不以错误的格式发送。

//TODO:如何监控elasticsearch.loglogstash.log

5.6 可视化分析Web访问日志

通过采集Nginx等Web服务器上的访问日志,使用图表和仪表盘进行可视化分析:

FireShot Capture 006 - yh-Web访问日志分析 - Kibana - localhost.png

5.7 Filebeat CPU使用率

Filebeat是一个非常轻量级的托运者,占用空间小,虽然很少发现有关Filebeat的抱怨,但在某些情况下,您可能会遇到高CPU使用率。

影响所用计算能力的一个因素是扫描频率 - Filebeat配置为扫描文件的频率。可以使用Filebeat配置文件中的scan_frequency设置为每个探测器定义此频率,因此如果您有大量探测器以严格的扫描频率运行,则可能导致CPU使用率过高。

参考:Why is Filebeat using too much CPU?

5.8 使用Alerting告警

Alerting告警为非基础许可证所有功能,详见:订阅 · Elastic Stack 产品和支持 | Elastic
TODO:待研究...ELK借助ElastAlert实现故障提前感知预警功能

5.9 使用MetricBeat监控服务器

5.10 APM插件

6、生产环境配置

默认情况下启动的Elasticsearch只绑定到localhost地址,局域网内也无法访问,这不适合于生产环境,可以通过network.host配置解决。另外对于服务器数量有限的情况,也可以使用Single-node discovery模式启动单节点。

network.host: 192.168.52.35
discovery.seed_hosts: ["192.168.52.35"]
discovery.type: single-node

参考:
Important Elasticsearch configuration
Bootstrap Checks

Run as a Service

linux:

sudo /bin/systemctl daemon-reload
sudo /bin/systemctl enable elasticsearch.service
sudo systemctl start elasticsearch.service
sudo systemctl stop elasticsearch.service

elasticsearch.service文件:
https://github.com/elastic/elasticsearch/blob/master/distribution/packages/src/common/systemd/elasticsearch.service

Kibana配置参考:

server.host: "192.168.52.35"
elasticsearch.hosts: ["http://192.168.52.35:9200"]

7、Cluster方案

Elasticsearch由许多不同的节点类型组成,其中两个是最重要的:主节点和数据节点。主节点负责集群管理,而数据节点,顾名思义,负责数据(详细了解如何在此处设置Elasticsearch集群)。

我们建议构建一个由至少三个主节点组成的Elasticsearch集群,因为普遍存在裂脑,这实际上是两个节点之间关于哪一个实际上是主节点的争议。

就数据节点而言,我们建议至少拥有两个数据节点,以便至少复制一次数据。这导致至少五个节点:三个主节点可以是小型机器,并且两个数据节点需要在具有非常快的存储和大容量存储器的固态机器上扩展。

我们建议您将Elasticsearch节点运行在不同的可用区域或数据中心的不同部分,以确保高可用性。这可以通过Elasticsearch设置来完成,该设置允许您配置要在不同AZ之间复制的每个文档。与Logstash一样,由于数据传输,由此类部署产生的成本可能非常陡峭。

8、快速安装包

9、大数据扩展

Elasticsearch-Hadoop (ES-Hadoop) 连接器将 Hadoop 海量的数据存储和深度加工能力与 Elasticsearch 实时搜索和分析功能进行连接。

image.png

三、阿里云日志服务

查询分析全方位对比(ELK)

查询方案(ELK/Hive)对比

使用Producer Library采集日志

LogHub 支持客户端、网页、协议、SDK/API、云产品等多种日志无损采集方式,所有采集方式均基于Restful API实现。

Aliyun LOG Java Producer 是一个易于使用且高度可配置的 Java 类库,专门为运行在大数据、高并发场景下的 Java 应用量身打造。

Github 项目地址以及更多详细说明请参见Aliyun LOG Java Producer

只需要简单的几个步骤,就可以使用日志聚合和可视化查询:

  1. pom添加引用
<dependency>
    <groupId>com.aliyun.openservices</groupId>
    <artifactId>aliyun-log-producer</artifactId>
    <version>0.2.0</version>
</dependency>
<dependency>
    <groupId>com.aliyun.openservices</groupId>
    <artifactId>aliyun-log</artifactId>
    <version>0.6.31</version>
</dependency>
<dependency>
    <groupId>com.google.protobuf</groupId>
    <artifactId>protobuf-java</artifactId>
    <version>2.5.0</version>
</dependency>

注意:由于com.aliyun.openservices:aliyun-log中引用的commons-validator是1.4.0的版本,因此项目中的commons-validator也需要升级为1.4.0的版本,否则会有异常。

 <dependency>
    <groupId>commons-validator</groupId>
    <artifactId>commons-validator</artifactId>
    <version>1.4.0</version>
</dependency>
  1. 编写继承自AppenderBase的自定义AppenderAliyunLogAppender,参考ylzpay-common模块下的AliyunLogAppender
  1. 配置logback.xml,增加新的Appender
    <appender name="aliyun" class="com.ylzinfo.onepay.sdk.log.AliyunLogAppender">
        <projectName>ylz</projectName>
        <logStore>ylz-test</logStore>
        <endpoint>ylz-test.cn-shenzhen.log.aliyuncs.com</endpoint>
        <accessKeyId>{yourAccessKeyId}</accessKeyId>
        <accessKeySecret>{yourAccessKeySecret}</accessKeySecret>>
        <topic>ylzpay-test-web</topic>
        <timeFormat>yyyy-MM-dd HH:mm:ss</timeFormat>
        <timeZone>GMT+8</timeZone>
        <filter class="ch.qos.logback.classic.filter.ThresholdFilter">
            <level>INFO</level>
        </filter>
    </appender>
    ...
    <root level="debug">
        ...
        <appender-ref ref="aliyun"/>
    </root>

效果:


image.png

日志服务其它最佳实线

典型使用场景

  • 云产品采集-负载均衡7层访问日志

https://help.aliyun.com/document_detail/66828.html?spm=a2c4g.11186623.6.646.42551519Egyw0M

  • 可视化分析、图表分析、仪表盘

https://help.aliyun.com/document_detail/102530.html?spm=a2c4g.11186623.6.844.5485566aKsTXr6

  • 聚类分析

https://help.aliyun.com/document_detail/100039.html?spm=5176.11065259.1996646101.searchclickresult.13fc56e37dNOnn

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,088评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,715评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,361评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,099评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 60,987评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,063评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,486评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,175评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,440评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,518评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,305评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,190评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,550评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,880评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,152评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,451评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,637评论 2 335

推荐阅读更多精彩内容