240 发简信
IP属地:海南
  • 120
    Flask最佳实践

    <Flask最佳实践> github 持续更新 https://github.com/yangyuexiong/Flask_BestPractices

  • 更正:根据 influx 官方的解释,series 是数据库的设置, 所以 series 太多的话, 需要输出到不同的数据库里。

    # The maximum series allowed per database before writes are dropped. This limit can prevent
    # high cardinality issues at the database level. This limit can be disabled by setting it to
    # 0.
    # max-series-per-database = 1000000
    # 每个数据库的最大series数值,设置这个数值可以避免高基数问题(就是内存要维护过多series导致OOM)
    # 如果你将其设置为0,则表示禁用该限制

    logstash + influxdb监控nginx日志

    logstash + influxdb监控nginx日志 1.采用logstash收集/过滤数据 1.1 具体安装请看https://www.elastic.co/官方文档 ...

  • - 问:tag数量过多导致series变多,最后导致OOM怎么解决?
    - 答:1. 被选为 tag 的字段,其值的全集应该在有限的范围内。
    比如:$request_uri 网站的链接是有限的,可以做 tag 。
    而 $request_time 响应时间的全集是无限的, 不能做 tag,是数值型的, 可以做 value。
    2. 精简 tag 数量,只加入需要的。
    3. 可以设置条件判断,输出到不同的 MEASUREMENT 里。

    logstash + influxdb监控nginx日志

    logstash + influxdb监控nginx日志 1.采用logstash收集/过滤数据 1.1 具体安装请看https://www.elastic.co/官方文档 ...

  • - 问:同一时间戳下同tag的多条数据覆盖问题怎么解决?
    - 答:发送给 influxdb 的 time 字段选择纳秒,在 nginx 的秒级时间戳后再加 9 位随机数字,将同一时间戳变为秒级相同,但纳秒级不同。随机数字也可使用 nginx 日志的 $connection 变量, 然后取 9 位(不足9 位左侧补 0)加到秒级时间戳的后面。这样的好处是, 每条日志的纳秒级时间戳固定,即使多次插入 influxdb 也不会产生重复记录。

    logstash + influxdb监控nginx日志

    logstash + influxdb监控nginx日志 1.采用logstash收集/过滤数据 1.1 具体安装请看https://www.elastic.co/官方文档 ...

  • 同一时间戳下同tag的多条数据覆盖问题怎么解决?tag数量过多导致series变多,最后导致OOM怎么解决?你这关键问题提都没提啊?