Spark执行错误-->数据量大时导致yarn崩溃

一、问题现象说明:

1, IQL在执行数据量超过1亿条数据的时候,执行不出来结果

2, 在执行超过四秒以后Yarn的node节点开始出问题

3,关闭执行以后查看CPU、内存 资源没有被占满

二、分析问题思路:

1, 通过 client 模式 将数据打印的日志展现出来,并重定向到本地保存日志

2,查看日志中的内容分析Error 如下:

ERROR TransportRequestHandler: Error sending result StreamResponse{streamId=/jars/iql-engine.jar, byteCount=145685437, body=FileSegmentManagedBuffer{file=/home/app/iqlEngine/iql-engine.jar, offset=0, length=145685437}} to /79.12.72.8:6862; closing connection

java.io.IOException: Connection reset by peer

该ERROR是报连接错误,有些错误信息可能是之前的问题导致的后果,所以继续往前查看信息 

3,查看前面的WARN信息如下:

WARN YarnSchedulerBackend$YarnSchedulerEndpoint: Requesting driver to remove executor 22 for reason Container marked as failed: container_1555493438863_1260_01_000023 on    host: centos5. Exit status: 1. Diagnostics: Exception from container-launch.

Container id: container_1555493438863_1260_01_000023

Exit code: 1

Stack trace: ExitCodeException exitCode=1: 

 at org.apache.hadoop.util.Shell.runCommand(Shell.java:601)

 at org.apache.hadoop.util.Shell.run(Shell.java:504)

 at org.apache.hadoop.util.Shell$ShellCommandExecutor.execute(Shell.java:786)

 at org.apache.hadoop.yarn.server.nodemanager.DefaultContainerExecutor.launchContainer(DefaultContainerExecutor.java:213)

 at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:302)

 at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:82)

 at java.util.concurrent.FutureTask.run(FutureTask.java:266)

 at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)

 at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)

 at java.lang.Thread.run(Thread.java:748)

 该WARN上说yarn的YarnSchedulerBackend创建容器失败,于是请求Driver移除编号为22的执行器,但是为什么容器创建失败呢,创建容器失败最主要的的就是资源分配问题。但是在执行命令时已经给定了 excutor 的资源为 --num-executors 8   --executor-memory 8g  好像没有生效  于是手动写一个Test类测试查询。

 依旧是同样的问题,于是查看SparkSession的配置 发现有个动态配置开启了,于是尝试将之前的动态分配给关闭,然后再测试一下,并且在执行命令时给定同样的命令 发现执行成功了。

三、出现该问题的原因:

执行命令中给定  --num-executors 8 命令和  spark.dynamicAllocation.enabled true 冲突了  导致 --num-executors 8没有生效,并且yarn集群的动态调用资源可能会把自己的资源占满,导致NodeManager相继挂掉。

四、总结

1,在出现问题时,需要认真分析日志,如果ERROR提示不明确时,应考虑分析整个执行流程的日志

2,通过yarn执行动态资源调度的时候可能会导致将资源占满

3,spark2.X以后 代码中的配置的属性和执行命令中配置的属性有冲突,会优先选择代码中的配置

4,分析问题时,需要了解每个组件的作用,这样分析问题会更加全面

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 201,784评论 5 474
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 84,745评论 2 378
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 148,702评论 0 335
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,229评论 1 272
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,245评论 5 363
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,376评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,798评论 3 393
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,471评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,655评论 1 295
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,485评论 2 318
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,535评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,235评论 3 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,793评论 3 304
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,863评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,096评论 1 258
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,654评论 2 348
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,233评论 2 341

推荐阅读更多精彩内容