理解 hadoop 的核心能力,是 hive 优化的根本
长期观察Hadoop处理数据的过程,有几个显著的特征:
1.不怕数据多,就怕数据倾斜。
2.job数量过多会导致运行效率变慢,mapreduce的初始化时间较长。
3.count(distinct)效率很低。
HIVE的优化
优化可以从以下几个方面入手
1.模型设计
2.处理数据倾斜
3.减少job的数量
4.设置maptask和reducetask的数量
5.set hive.groupby.skewindata=true,这是通用的算法优化,但是算法优化总是漠视业务,通过业务逻辑解决倾斜的方法往往更精确,更有效。
6.不使用count(distinct)。
7.对小文件进行合并。
8.单个最优不如整体最优。
优化案例
案例一:
不同数据类型id的关联会产生数据倾斜问题
日志表和商品表关联,商品表中的id有bigint类型也有string类型,但是日志表中的数字id是string类型,日志表中的商品id转化成数字id做hash来分配reduce,这样就会导致字符串id的日志都到一个reduce中去。
解决方案:
Select * from log a
Left outer join auctions b
On a.auction_id = cast(b.auction_id as string);
案例二:
丢失的数据不应该参与关联
select *
from log a
left join users b
on case when a.user_id is null then cancat('hive',rand())
else a.user_id=a.user_id end;
空值不参与关联,不影响最终结果
hadoop 通用关联的实现方法:二次排序
案例三:
hive对union all的优化
select * from
(select * from t1
Group by c1,c2,c3
Union all
Select * from t2
Group by c1,c2,c3) t3
Group by c1,c2,c3;
上面的sql语句可以改写为
select * from
(select * from t1
Union all
Select * from t2
) t3
Group by c1,c2,c3;
数据是一致的,mr的任务从3个减到1个。
t1 相当于一个目录,t2 相当于一个目录,那么对 map reduce 程序来说,t1,t2 可以做为 map reduce 作业的 mutli inputs。那么,这可以通过一个 map reduce 来解决这个问题。
案例四:
hive在union all上的优化更智能
多个表查询union all时,可以转化为:
Select * from (t1 union all t4 union all t5) ;
union all 目前的优化只局限于非嵌套查询
案例五:
(表a的f1字段关联表b的f2字段) union all (表a的f1字段关联表b的f3字段)
可以改写为:
Select * from effect a
Join (select auction_id as auction_id from auctions
Union all
Select auction_string_id as auction_id from auctions
) b
On a.auction_id = b.auction_id。
案例六:
小表关联大表时,如果小表很大,不会启动mapjoin,需要特殊处理
Select * from log a
Left outer join members b
On a.memberid = b.memberid.
改写为:
Select * from log a
Left outer join (
select d.*
From (select distinct memberid from log ) c
Join members d
On c.memberid = d.memberid
) x
On a.memberid = b.memberid。
本质:大表join大表=>大表join小表
1.common join
启用两个map作业读取两张表 ,然后经由reducer合并 。
2.map join
首先在本地生成一个local task 读取比较小的表dept,然后将表写入Hash Table Files ,上传到HDFS的缓存中,然后启动一个map作业,每读取一条数据,就与缓存中的小表进行join操作,直至整个大表读取结束。
案例七:
解决数据倾斜的通用方案
Select * from log a
Left outer join (
select memberid, number
From members d
Join num e
) b
On a.memberid= b.memberid
And mod(a.pvtime,30)+1=b.number;
Num 表只有一列 number,有 30 行,是 1,30 的自然数序列。就是把 member 表膨胀成
30 份,然后把 log 数据根据 memberid 和 pvtime 分到不同的 reduce 里去,这样可以保证
每个reduce分配到的数据可以相对均匀。
通用的hive优化:倾斜的数据用 map join,不倾斜的数据用普通的 join
总结:
1.join优化
2.通过left semi join实现hive中的(not)in
3.合并小文件,设置maptask和reducetask的数量
4.group by优化
5.分区,分桶,索引
6.查看执行计划,并行执行(相互之间没有依赖关系)
7.hive的jvm重用
8.严格模式和本地模式
9.limit的优化
10.对数据倾斜的处理