spark application job自定义日志输出

前言

spark默认采用log4j作为日志框架,并且采用${SPARK_HOME}/conf/log4j.properties作为默认的日志配置,默认如下:

log4j.rootLogger=${root.logger}
root.logger=INFO,console
log4j.appender.console=org.apache.log4j.ConsoleAppender
log4j.appender.console.target=System.err
log4j.appender.console.layout=org.apache.log4j.PatternLayout
log4j.appender.console.layout.ConversionPattern=%d{yy/MM/dd HH:mm:ss} %p %c{2}: %m%n
log4j.logger.org.apache.spark.repl.Main=WARN
log4j.logger.org.eclipse.jetty=WARN
log4j.logger.org.spark-project.jetty=WARN
log4j.logger.org.spark-project.jetty.util.component.AbstractLifeCycle=ERROR
log4j.logger.org.apache.spark.repl.SparkIMain$exprTyper=INFO
log4j.logger.org.apache.spark.repl.SparkILoop$SparkILoopInterpreter=INFO
log4j.logger.org.apache.parquet=ERROR
log4j.logger.parquet=ERROR
log4j.logger.org.apache.hadoop.hive.metastore.RetryingHMSHandler=FATAL
log4j.logger.org.apache.hadoop.hive.ql.exec.FunctionRegistry=ERROR

从上述配置可知,仅开启了console输出,而spark在启动ApplicationMaster与Executor时,会将日志console输出重定向到stderr文件中,将system.out重定向到stdout中。以ApplicationMaster为例,其启动命令为:

/bin/bash -c /usr/java/jdk1.8//bin/java 
-server -Xmx1024m 
-Djava.io.tmpdir=/yarn/nm/usercache/root/appcache/application_id/application_id/tmp 
-Dspark.yarn.app.container.log.dir=/yarn/container-logs/application_id/application_id 
-XX:MaxPermSize=256m org.apache.spark.deploy.yarn.ApplicationMaster 
--class 'com.clife.data.xx' 
--jar file:xxx.jar 
--executor-memory 2048m --executor-cores 1 
--properties-file /yarn/nm/usercache/root/appcache/application_id/application_id/__spark_conf__/__spark_conf__.properties 
1> /yarn/container-logs/application_id/application_id/stdout 
2> /yarn/container-logs/application_id/application_id/stderr

stderr不支持自动切割与删除,对于spark stream job来说会造成stderr文件非常大的情况,不仅影响磁盘存储空间,对问题的排查和定位也并不友好。本文来介绍如何通过log4j(笔者尝试替换spark集群日志框架为logback,暂未成功)来实现日志重定向到file并支持切割与自动删除,同时支持从spark web ui中跳转到日志中。

配置log4j

全局替换

从上文可知,spark启动job时采用了${SPARK_HOME}/conf/log4j.properties作为log4j的配置文件,是否可以修改该配置文件,将日志写到文件中,并且支持自动切割和回滚即可?当然可以,关闭console appender,仅开放file appender。如下配置:

log4j.rootCategory= INFO, file 
log4j.appender.console=org.apache.log4j.ConsoleAppender 
log4j.appender.console.target=System.err 
log4j.appender.console.layout=org.apache.log4j.PatternLayout 
log4j.appender.console.layout.ConversionPattern=%d{yy/MM/dd HH:mm:ss} %p %c{1}: %m%n 

log4j.appender.file=org.apache.log4j.RollingFileAppender
log4j.appender.file.MaxFileSize=200MB
log4j.appender.file.MaxBackupIndex=10
log4j.appender.file.file=${spark.yarn.app.container.log.dir}/container
log4j.appender.file.layout=org.apache.log4j.PatternLayout 
log4j.appender.file.layout.conversionPattern=%d{yyyy-MM-dd HH:mm:ss} %p [%C{3}:%M:%L] %m%n  
log4j.appender.file.encoding=UTF-8

log4j.logger.com.clife=DEBUG
log4j.logger.org.apache.spark.repl.Main=WARN
log4j.logger.org.eclipse.jetty=WARN
log4j.logger.org.spark-project.jetty=WARN
log4j.logger.org.spark-project.jetty.util.component.AbstractLifeCycle=ERROR
log4j.logger.org.apache.spark.repl.SparkIMain$exprTyper=INFO
log4j.logger.org.apache.spark.repl.SparkILoop$SparkILoopInterpreter=INFO
log4j.logger.org.apache.parquet=ERROR
log4j.logger.parquet=ERROR
log4j.logger.org.apache.hadoop.hive.metastore.RetryingHMSHandler=FATAL
log4j.logger.org.apache.hadoop.hive.ql.exec.FunctionRegistry=ERROR

上述配置中log4j.appender.file.file=${spark.yarn.app.container.log.dir}/spark.log的${spark.yarn.app.container.log.dir}值来自启动Application Master和Executor的启动命令-Dspark.yarn.app.container.log.dir=/yarn/container-logs/application_id/application_id,如此便可以将file appender日志输出到stderr同级目录下,支持yarn日志聚合。那如何通过spark web ui查看当前日志文件呢?只需要将原来的stderr收到修改为container即可,如图:
image.png

当前application可用

上面讲述了如何进行全局替换,本节讲解如何对单个application使用特定的log4j配置。参照:Spark log4j 日志配置。在spark-submit时,增加如下配置:

spark-submit \
--files ${CONF_DIR}/log4j-driver.properties,${CONF_DIR}/log4j-executor.properties \
--driver-java-options "-Dlog4j.configuration=log4j-driver.properties" \
--conf spark.executor.extraJavaOptions="-Dlog4j.configuration=log4j-executor.properties" \

这里支持对driver和executor使用不同的配置,输出到不同的配置文件中。其实在spark on yarn模式下,driver和executor属于不同的container,所以可以让driver和executor使用同一份配置。

spark web ui

在平台研发中,希望的统一日志输出格式和配置,并且可以spark web ui上能够直接跳转到用户的日志文件中。如下图:

image.png
在Executor页面的logs列中加入用户日志的入口,由于希望日志进行切割,所以点击container后进入的是日志文件列表(这里如果采用logback,日志切割会更加友好,之后替换成logback在撰文)
image.png

当前表格在源码org.apache.spark.ui.exec.ExecutorsPage.scala的render方法中构建,
image.png
笔者仅在execRow中构建logs <td>时增加了如下代码:
image.png

然后重新编译spark-assembly,替换集群中的jar,即可。
关于源码编译,笔者使用的spark-1.6.0-cdh5.7.2,需要注意maven版本(笔者使用3.3.3),以及配置cloudera repository

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,324评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,303评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,192评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,555评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,569评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,566评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,927评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,583评论 0 257
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,827评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,590评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,669评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,365评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,941评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,928评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,159评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,880评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,399评论 2 342

推荐阅读更多精彩内容

  • 在应用程序中添加日志记录总的来说基于三个目的:监视代码中变量的变化情况,周期性的记录到文件中供其他应用进行统计分析...
    时待吾阅读 4,953评论 0 6
  • 在应用程序中添加日志记录总的来说基于三个目的:监视代码中变量的变化情况,周期性的记录到文件中供其他应用进行统计分析...
    时待吾阅读 4,933评论 1 13
  • from:https://www.cnblogs.com/ITtangtang/p/3926665.html一、L...
    enshunyan阅读 3,272评论 0 0
  • 一、Log4j简介 Log4j有三个主要的组件:Loggers(记录器),Appenders (输出源)和Layo...
    默默守护阅读 1,897评论 2 8
  • 当别人问你在想什么事情的时候,你该怎么说? ①大多数人处于礼貌才那么问 不要说你正在想的事情,大多数时候别人只不过...
    孤独中的喧嚣阅读 7,424评论 0 0