filebeat+logstash+influxdb+grafana监控kube-scheduler调度耗时

overview

kubernetes集群中scheduler对pod各个阶段的调度耗时也展示了scheduler的性能,目前在社区中没有找到相关的监控项,于是本文将使用filebeat+logstash+influxdb+grafana技术栈将Metres展示监控起来。

kube-scheduler.INFO相关Trace日志
I0117 18:08:43.224106   87811 trace.go:76] Trace[1863564834]: "Scheduling fat-app/xxxxxxxx-xxxxxxxx-3404-0" (started: 2019-01-17 18:08:43.106820332 +0800 CST m=+116911.416416886) (total time: 117.213043ms):
Trace[1863564834]: [117.187µs] [117.187µs] Computing predicates
Trace[1863564834]: [2.093583ms] [1.976396ms] Prioritizing
Trace[1863564834]: [117.172797ms] [115.079214ms] Selecting host
Trace[1863564834]: [117.213043ms] [40.246µs] END

filebeat配置

filebeat.prospectors:
- type: log
  paths:
    - /var/log/kubernetes/kube-scheduler.*.INFO.*
  include_lines: ['trace','Trace']
# pattern: 正则表达式
# negate: true 或 false(默认是false),false表示匹配pattern的行合并到上一行;true表示不匹配pattern的行合并到上一行
#  match:  after 或 before,合并到上一行的末尾或开头
  multiline:
    pattern: '^Trace\[[0-9]+\]'
    negate: false
    match: after
  fields:
    tag: scheduler  #添加tag
  fields_under_root: true
  scan_frequency: 10s
  ignore_older: 6h
  close_inactive: 5m
  close_removed: true
  clean_removed: true
  tail_files: false

fields:
  zone: $zone_name  #添加自己的环境信息
fields_under_root: true

output.logstash:
  enabled: true
  hosts:
    - $logstash_host:5044  #logstash的地址

logging.level: info
logging.metrics.enabled: false
http.enabled: true
http.host: localhost
http.port: 5066

setup.dashboards.enabled: false
setup.template.enabled: false

path.home: /usr/share/filebeat
path.data: /var/lib/filebeat
path.logs: /var/log/filebeat
filebeat.registry_file: ${path.data}/registry
max_procs: 2

note:

  • debug时可通过 filebeat -e -c filebeat.yml -d "publish"来确认采集的信息是否正确
  • 若有如下报错,则需要将filebeat stop掉,将/var/lib/filebeat/registry 删除,重启filebeat重新注册即可

ERROR registrar/registrar.go:346 Writing of registry returned error: rename /var/lib/filebeat/registry.new /var/lib/filebeat/registry: no such file or directory. Continuing...

Logstash的安装及配置

install logstash

  • 下载logstash安装
$ wget https://artifacts.elastic.co/downloads/logstash/logstash-6.5.4.rpm
$ rpm -ivh
  • 到logstash的path目录下,链接/etc/logstash
$ cd /usr/share/logstash/config
$ ln -s /etc/logstash/* .
  • 更改logstash相关目录权限
$ chown -R /etc/logstash
$ chown -R /usr/share/logstash
$ chown -R /var/lib/logstash
  • 安装所需插件,详细见下文
$ cd /usr/share/logstash/
$ bin/logstash-plugin install logstash-output-influxdb
  • 检查配置文件是否正常
$ bin/logstash -f /etc/logstash/logstash.conf --config.test_and_exit
  • 启动
$ bin/logstash -f /etc/logstash/logstash.conf --config.reload.automatic

install-plugin

  • logstash-filter-grok
  • logstash-output-influxdb
    插件需要单独安装,安装方式如果能不能连接外网则可采用以下方式
    https://gems.ruby-china.com/

(1)尽可能用比较新的 RubyGems 版本,建议 2.6.x 以上

$ yum install -y gem
$ gem update --system # 这里请翻墙一下
$ gem -v
  2.6.3

(2) 更换到国内的源,确保只有 gems.ruby-china.com

$ gem sources --add https://gems.ruby-china.com/ --remove https://rubygems.org/
$ gem sources -l
  https://gems.ruby-china.com

(3)安装单个插件

$ gem install logstash-output-influxdb

(4)安装所有Gemfile中的插件

# 在Gemfile中添加想要安装的plugin
  gem 'logstash-output-influxdb', '~> 5.0', '>= 5.0.5'
$ bin/logstash-plug ininstall --no-verify

self-defined grok-pattern

KUBESCHEDULER .*Scheduling %{NOTSPACE:namespace:tag}/%{NOTSPACE:podname:tag}\".*total time: %{NUMBER:total_time}%{NOTSPACE:total_mesurement}\).*Trace\[\S+\].*\[\S+\].*\[%{NUMBER:computing_time}%{NOTSPACE:computing_mesurement}\]\s+Computing %{WORD:ComputingPredicates:tag}.*Trace\[\S+\].*\[\S+\].*\[%{NUMBER:prioritizing_time}%{NOTSPACE:prioritizing_mesurement}\]\s+%{WORD:Prioritizing:tag}.*Trace\[\S+\].*\[\S+\].*\[%{NUMBER:SelectingHost_time}%{NOTSPACE:SelectingHost_mesurement}\]\s+%{WORD:SelectingHost:tag}.**Trace\[\S+\].*\[\S+\].*\[%{NUMBER:end_time}%{NOTSPACE:end_mesurement}\]\s+%{WORD:END:tag}

KUBESCHEDULERSHORT .*Scheduling %{NOTSPACE:namespace:tag}/%{NOTSPACE:podname:tag}\".*total time: %{NUMBER:total_time}%{NOTSPACE:total_mesurement}\).*Trace\[\S+\].*\[\S+\].*\[%{NUMBER:computing_time}%{NOTSPACE:computing_mesurement}\]\s+Computing %{WORD:ComputingPredicates:tag}.**Trace\[\S+\].*\[\S+\].*\[%{NUMBER:end_time}%{NOTSPACE:end_mesurement}\]\s+%{WORD:END:tag}

logstash.conf配置文件

input {
    beats {
        port => "5044"
        client_inactivity_timeout => "60" #默认60s
    }   
}
filter {
    grok {
        # 需要安装grok插件,并且pattern能正确匹配才能有输出
        patterns_dir => ["/usr/share/logstash/config/pattern"] #自定义的grok pattern
        match => {
                   "message" => ["%{KUBESCHEDULER}", "%{KUBESCHEDULERSHORT}"]
                 }
        remove_field => ["message"]

    } 
    ruby {
    # logstash的算术运算操作,统一运算单位
        code => "
            total_unit = event.get('total_mesurement')
            computing_unit = event.get('computing_mesurement')
            prioritizing_unit = event.get('prioritizing_mesurement')
            selecting_unit = event.get('SelectingHost_mesurement')
            ending_unit = event.get('end_mesurement')
            if total_unit == 'ms'
                event.set('total_time',(event.get('total_time').to_f*1000))
            elsif total_unit == 's'
                event.set('total_time',(event.get('total_time').to_f*1000000))
            else
                event.set('total_time',(event.get('total_time').to_f))
            end
            if computing_unit == 'ms'
                event.set('computing_time',(event.get('computing_time').to_f*1000))
            elsif computing_unit == 's'
                event.set('computing_time',(event.get('computing_time').to_f*1000000))
            else
                event.set('computing_time',(event.get('computing_time').to_f))
            end
            if prioritizing_unit == 'ms'
                event.set('prioritizing_time',(event.get('prioritizing_time').to_f*1000))
            elsif prioritizing_unit == 's'
                event.set('prioritizing_time',(event.get('prioritizing_time').to_f*1000000))
            else
                event.set('prioritizing_time',(event.get('prioritizing_time').to_f))
            end
            if selecting_unit == 'ms'
                event.set('SelectingHost_time',(event.get('SelectingHost_time').to_f*1000))
            elsif selecting_unit == 's'
                event.set('SelectingHost_time',(event.get('SelectingHost_time').to_f*1000000))
            else
                event.set('SelectingHost_time',(event.get('SelectingHost_time').to_f))
            end
            if ending_unit == 'ms'
                event.set('end_time',(event.get('end_time').to_f*1000))
            elsif ending_unit == 's'
                event.set('end_time',(event.get('end_time').to_f*1000000))
            else
                event.set('end_time',(event.get('end_time').to_f))
            end
           "   
        remove_field => ["total_mesurement","computing_mesurement","prioritizing_mesurement","SelectingHost_mesurement","end_mesurement","prospector","offset","tags","beat","source"]
    }   
}

output {
  influxdb {
    db => "$dbname"
    host => "$influxdb-host"
    port => "8086"
    user => "$username"
    password => "$yourpasswd"
    measurement => "kubeSchedulerTimeCost"
    coerce_values => {
      "total_time" => "float"
      "computing_time" => "float"
      "prioritizing_time" => "float"
      "SelectingHost_time" => "float"
      "end_time" => "float"
    }
    data_points => {
      "namespace" => "%{namespace}"
      "podname" => "%{podname}"
      "ComputingPredicates" => "%{ComputingPredicates}"
      "Prioritizing" => "%{Prioritizing}"
      "SelectingHost" => "%{SelectingHost}"
      "End" => "%{END}"
      "zone" => "%{zone}"
      "total_time" => "%{total_time}"
      "computing_time" => "%{computing_time}"
      "prioritizing_time" => "%{prioritizing_time}"
      "SelectingHost_time" => "%{SelectingHost_time}"
      "end_time" => "%{end_time}"
      "host" => "%{host}"
     }   
    send_as_tags => ["host","zone","namespace","podname","ComputingPredicates","Prioritizing","SelectingHost","End"]
  }
#  elasticsearch {
#    hosts => "$es-host:9200"
#    manage_template => false
#    index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"
#    document_type => "%{[@metadata][type]}"
#  }
  stdout { codec => rubydebug }
}

note:

  • 可通过执行bin/logstash -f ./config/conf.d/scheduler.conf -- config.reload.automatic
  • 若启动logstash服务,但是input beats 5044 port没有打开,则可能时权限问题,更改一下queue的权限chown -R logstash:logstash /var/lib/logstash

influxdb

influxdb需要将相应的端口打开

grafana看板

可看到各个集群的pod在各个阶段的调度耗时及调度时间


scheduler.png
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 201,552评论 5 474
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 84,666评论 2 377
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 148,519评论 0 334
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,180评论 1 272
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,205评论 5 363
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,344评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,781评论 3 393
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,449评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,635评论 1 295
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,467评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,515评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,217评论 3 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,775评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,851评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,084评论 1 258
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,637评论 2 348
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,204评论 2 341

推荐阅读更多精彩内容