Elasticsearch的故事

第一个故事:趋势

  小明每十秒钟向es存入当前网卡的信息。该如何统计该网卡某天每小时接受到字节的趋势图。
注:(网卡信息中的接受字节数是一直累加的)

{
    "query": {
        "bool": {
            "must": [{
                    "range": {
                        "@timestamp": {
                            "gt": "2019-01-13T00:00:00.000+08:00",
                            "lt": "2019-01-13T23:59:59.999+08:00"
                        }
                    }
                }
            ]
        }
    },
    "size": 0,
    "aggs": {
        "groupByInterval": {
            "date_histogram": {
                "field": "@timestamp",
                "interval": "1h",
                "format": "yyyy-MM-dd HH:mm:ss",
                "time_zone": "+08:00",
                "min_doc_count": 0
            },
            "aggs": {
                "maxin": {
                    "max": {
                        "field": "system.network.in.bytes"
                    }
                },
                "in_deriv": {
                    "derivative": {
                        "buckets_path": "maxin",
                        "unit": "1s"
                    }
                }
            }
        }
    }
}

上面的查询语句将返回:

{
  "took" : 260,
  "timed_out" : false,
  "_shards" : {
    "total" : 1211,
    "successful" : 1211,
    "skipped" : 1205,
    "failed" : 0
  },
  "hits" : {
    "total" : 8640,
    "max_score" : 0.0,
    "hits" : [ ]
  },
  "aggregations" : {
    "groupByInterval" : {
      "buckets" : [
        {
          "key_as_string" : "2019-01-13 00:00:00",
          "key" : 1547308800000,
          "doc_count" : 360,
          "maxin" : {
            "value" : 1.5438929488E10
          }
        },
        ...
        ...
        {
          "key_as_string" : "2019-01-13 23:00:00",
          "key" : 1547391600000,
          "doc_count" : 360,
          "maxin" : {
            "value" : 1.5990460333E10
          },
          "in_deriv" : {
            "value" : 2883272.0,
            "normalized_value" : 800.9088888888889
          }
        }
      ]
    }
  }
}

知识点:
  derivative:用于histogram (or date_histogram)的子聚合。可以对histogram聚合中的指标类聚合进行求导。(简单来说就是每个时间段的值减去上一个时间段的值)其中“buckets_path”是描述需要求导的聚合名。因为“unit”设置为1s,所以返回结果中“normalized_value”是平均每秒的变化。

第二个故事:听说你要每个的最后一条?

  小明每十秒钟向es存入当前cpu使用的百分比信息。现有10台主机,该如何获取每台主机最新的一条cpu使用信息。

{
  "aggs": {
    "groupByHostName": {
      "terms": {
        "field": "host.name"
      },
      "aggs": {
        "lastOne": {
          "top_hits": {
            "size":1,
            "sort":[
              {
                "@timestamp":{
                    "order":"desc"
                }
              }
            ],
            "_source": {
              "includes": [ "system.cpu.total.pct"]
            }
          }
        }
      }
    }
  },
  "query": {
    "bool": {
      "must": [
        {
          "term": {
            "metricset.name": "cpu"
          }
        },
        {
            "range": {
                "@timestamp": {
                    "gt": "2019-01-13T00:00:00.000+08:00",
                    "lt": "2019-01-13T23:59:59.999+08:00"
                }
            }
        }
      ]
    }
  },
  "size": 0
}

上面的查询语句将返回:

{
  "took" : 3,
  "timed_out" : false,
  "_shards" : {
    "total" : 14,
    "successful" : 14,
    "skipped" : 0,
    "failed" : 0
  },
  "hits" : {
    "total" : 164136,
    "max_score" : 0.0,
    "hits" : [ ]
  },
  "aggregations" : {
    "groupByHostName" : {
      "doc_count_error_upper_bound" : 0,
      "sum_other_doc_count" : 77736,
      "buckets" : [
        {
          "key" : "RedHat6.4-02",
          "doc_count" : 8640,
          "lastOne" : {
            "hits" : {
              "total" : 8640,
              "max_score" : null,
              "hits" : [
                {
                  "_index" : "metricbeat-6.5.1-2019.01.13",
                  "_type" : "doc",
                  "_id" : "c1zwR2gB7bWvjZhWp3RJ",
                  "_score" : null,
                  "_source" : {
                    "system" : {
                      "cpu" : {
                        "total" : {
                          "pct" : 0.0655
                        }
                      }
                    }
                  },
                  "sort" : [
                    1547395192576
                  ]
                }
              ]
            }
          }
        },
        ...
        ...
        {
          "key" : "docker185",
          "doc_count" : 8640,
          "lastOne" : {
            "hits" : {
              "total" : 8640,
              "max_score" : null,
              "hits" : [
                {
                  "_index" : "metricbeat-6.5.1-2019.01.13",
                  "_type" : "doc",
                  "_id" : "xVzwR2gB7bWvjZhWqHSz",
                  "_score" : null,
                  "_source" : {
                    "system" : {
                      "cpu" : {
                        "total" : {
                          "pct" : 0.0509
                        }
                      }
                    }
                  },
                  "sort" : [
                    1547395192917
                  ]
                }
              ]
            }
          }
        }
      ]
    }
  }
}

知识点:
  top_hits聚合实现了在相同的hostname组中取得最新一条上报的文档。其中“sort”指定了按照上传时间倒序,“size”指定了取每组的最后一条,而“_source”中的“includes”则指定了只获取“system.cpu.total.pct”的值,不关心该条文档的其他字段。

第三个故事:一骑红尘妃子笑

  家住长安的小杨经常在网上购买岭南的荔枝。从岭南到长安的路上有许多个驿站,小杨的快递每经过一个驿站,该驿站的工作人员就会向es中记录一条包含快递单号和当前时间的信息。那么如何计算出每次从发货到收货的平均运输时间?

{
    "size": 0,
    "aggs": {
        "groupById": {
            "terms": {
                "field": "id"
            },
            "aggs": {
                "maxCreateTime": {
                    "max": {
                        "field": "createTime"
                    }
                },
                "minCreateTime": {
                    "min": {
                        "field": "createTime"
                    }
                },
                "resultValue": {
                    "bucket_script": {
                        "buckets_path": {
                            "min": "minCreateTime",
                            "max": "maxCreateTime"
                        },
                        "script": {
                            "source": "params.max - params.min"
                        }
                    }
                }
            }
        },
        "avgValue": {
            "avg_bucket": {
                "buckets_path": "groupById>resultValue"
            }
        }
    }
}

上面的查询语句将返回:

{
    "took": 5,
    "timed_out": false,
    "_shards": {
        "total": 1,
        "successful": 1,
        "skipped": 0,
        "failed": 0
    },
    "hits": {
        "total": 4,
        "max_score": 0.0,
        "hits": []
    },
    "aggregations": {
        "groupById": {
            "doc_count_error_upper_bound": 0,
            "sum_other_doc_count": 0,
            "buckets": [{
                "key": "1",
                "doc_count": 2,
                "minCreateTime": {
                    "value": 1.547366698E12,
                    "value_as_string": "2019-01-13 08:04:58"
                },
                "maxCreateTime": {
                    "value": 1.547539498E12,
                    "value_as_string": "2019-01-15 08:04:58"
                },
                "resultValue": {
                    "value": 1.728E8
                }
            }, {
                "key": "2",
                "doc_count": 2,
                "minCreateTime": {
                    "value": 1.547193898E12,
                    "value_as_string": "2019-01-11 08:04:58"
                },
                "maxCreateTime": {
                    "value": 1.547371938E12,
                    "value_as_string": "2019-01-13 09:32:18"
                },
                "resultValue": {
                    "value": 1.7804E8
                }
            }]
        },
        "avgValue": {
            "value": 1.7542E8
        }
    }
}

知识点:
  bucket_script聚合它执行一个脚本,该脚本可以执行对每个桶的计算。其中buckets_path将minCreateTime和maxCreateTime的结果作为参数,参数名分别是min和max。script中的source则指定了具体的计算内容。
  外层的avg_bucket聚合将计算出所有桶的平均耗时,其中buckets_path指定了对groupById聚合的resultValue子聚合做取平均值计算。
  除avg_bucket外,es还提供了max_bucket,min_bucket,sum_bucket,stats_bucket,derivative等其他操作。

持续更新中……

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 202,980评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,178评论 2 380
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,868评论 0 336
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,498评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,492评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,521评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,910评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,569评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,793评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,559评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,639评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,342评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,931评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,904评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,144评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,833评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,350评论 2 342

推荐阅读更多精彩内容

  • Pipeline aggregations work on the outputs produced from o...
    subway1211阅读 1,164评论 0 1
  • 什么是聚合 每个聚合都是一个或者多个桶和零个或者多个指标的组合。 桶(Buckets) 满足特定条件的文档的集合。...
    壹点零阅读 2,739评论 0 2
  • 近期签到,喜欢的几张图,喜欢的几段话。 软件,足记 用足记好久了,还是很喜欢这个软件的 或许会有某一段话触及到你的...
    bobo屋阅读 479评论 0 0
  • 习惯寂寞,在无边的孤独里,想起我的曾经;习惯看花,在春秋的花丛里,念起你的名字;习惯写诗,在漆黑的深夜里,...
    冰夫阅读 139评论 0 0
  • 春节的这几天,追了一部三十六集的电视连续剧《中国式关系》,整个剧情颇为紧凑,套路也是一个接一个,对很少追剧的我而言...
    伍月端午阅读 408评论 0 3