Hive数据倾斜的示例分析

发布时间:2021-12-10 11:09:15 作者:小新
来源:亿速云 阅读:140

这篇文章将为大家详细讲解有关Hive数据倾斜的示例分析,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。

一、离线数据的主要挑战:“数据倾斜”

首先介绍 “数据倾斜” 的概念。

“倾斜”应该来自于统计学里的的偏态分布,数据处理中的倾斜和此相关。

对于分布式数据处理来说,我们希望数据平均分布到每个处理节点,但是实际上由于业务数据本身的问题或者分布算法的问题,每个节点分配到的数据量很可能并不是我们预想的那样。

也就是说,只有待分到最多数据的节点处理完数据,整个数据处理任务才能完成,时分布式的意义就大打折扣 ,想想那个卡死的 99% 。

实际上,即使每个节点分配到的数据量大致相同,数据仍可能倾斜,比如考虑统计词频的极端问题,如果某个节点分配到的词都是一个词,那么显此节点需要的耗时将很长,即使其数据量和其他节点的数据量相同。

Hive 的优化正是采用各种措施和方法对上述场景的倾斜问题进行优化和处理。

二、Hive 的优化

其实在实际 Hive SQL 开发的过程中, Hive SQL 性能的问题上实际只有一小部分和数据倾相关。

很多时候, Hive SQL 运行得慢是由开发人员对于使用的数据了解不够以及一些不良的使用习惯引起的。

开发人员 要确定以下几点:

在保证了上述几点之后,有的时候发现 Hive SQL 还是要运行很长时间,甚至运行不出来, 这时就需要真正的 Hive 优化技术了!

三、Join 无关的优化

Hive SQL 性能问题基本上大部分都和 join 相关,对于和 join 无关的问题主要有 group by 相关的倾斜和 count  distinct 相关的优化。

group by 引起的倾斜优化

group by 引起的倾斜主要是输入数据行按照 「group by 列分布不均匀」 引起的。

比如,假设按照供应商对销售明细事实表来统计订单数,那么部分大供应商的订单量显然非常多,而多数供应商的订单量就一般,由于 group by  的时候是按照供应商的 ID 分发到每个 Reduce Task ,那么此时分配到大供应商的 Reduce Task  就分配了更多的订单,从而导致数据倾斜。

对于 group by 引起的倾斜,优化措施非常简单,只需设置下面参数即可:

set hive.map.aggr = true     set hive.groupby.skewindata=true

此时Hive 在数据倾斜的时候会进行负载均衡,生成的查询计划会有两个 MapReduce Job。

count distinct 优化

在 Hive 开发过程中,应该小心使用 count distinct ,因为很容易引起性能问题,比如下面的 SQL:

select count(distinct user) from some_table

由于必须去重,因此 Hive 将会把 Map 阶段的输出全部分布到 Reduce Task 上,此时很容易引起性能问题。对于这种情况,可以通过先  group by 再 count 的方式来优化,优化后的 SQL 如下:

select count(*) from (    select user     from some_table     group by user    ) tmp;

原理为:先利用 group by 去重,再统计 group by 的行数目。

四、大表 Join 小表优化

join 相关的优化主要分为 mapjoin 可以解决的优化 ( 即大表 join 小表) 和 mapjoin 无法解决的优化( 即大表 join 大表  )。大表 join 小表相对容易解决,大表 join 大表相对复杂和难以解决,但也不是不可解决的,只是相对比较麻烦而已。

首先介绍大表 join 小表优化 。仍以销售明细事实表为例来说明大表 join 小表的场景。

假如供应商会进行评级,比如(五星、四星、 两星、 一星),此时业务人员希望能够分析各供应商星级的每天销售情况及其占比。

开发人员一般会写出如下 SQL:

select Seller_srar, count(order_id) as ordre_cnt    from (    select order_id,seller_id         from dwd_sls_fact_detail_table        where partition_value ='20170101'    ) a    Left outer join(    select seller_id,seller_star        from dim_seller        where partition_value='20170101'    ) b    on a.seller_id = b.seller_id    group by b.seller_star;

但正如上述所言,现实世界的二八准则将导致订单集中在部分供应商上,而好的供应商的评级通常会更高,此时更加剧了数据倾斜的程度。如果不加以优化,上述 SQL  将会耗费很长时间,甚至运行不出结果!

通常来说,供应商是有限的,比如上千家、上万家,数据量不会很大,而销售明细事实表比较大,这就是典型的大表 join 小表问题,可以通过 mapjoin  的方式来优化,只需添加 mapjoin hint 即可,优化后的 SQL 如下:

select /*+mapjoin(b)*/ Seller_srar, count(order_id) as ordre_cnt from ( select order_id,seller_id      from dwd_sls_fact_detail_table     where partition_value ='20170101' ) a Left outer join( select seller_id,seller_star     from dim_seller     where partition_value='20170101' ) b on a.seller_id = b.seller_id group by b.seller_star;

/*+mapjoin(b)*/ 即 mapjoin himt,如果需要 mapjoin 多个表,则格式为/*+mapjoin(b,c,d)*/ 。

Hive 对于 mapjoin 是默认开启的,设置参数为:

Set hive.auto.convert.join=ture;

mapjoin 优化是在 Map 阶段进行 join ,而不是像通常那样在 Reduce 阶段按照 join 列进行分发后在每个 Reduce  任务节点上进行 join ,不需要分发也就没有倾斜的问题,相反 Hive 会将小表全量复制到每个 Map 任务节点(对于本例是 dim_seller  ,当然仅全量复制 b表 sql 指定的列),然后每个 Map 任务节点执行 lookup 小表即可。

「从上述分析可以看出,小表不能太大,否则全量复制分发得不偿失。」

五、大表 Join 大表优化

如果上述 mapjoin 中小表 dim_seller 很大呢?比如超过了 1GB 的大小?这种就是大表join 大表的问题 。

这类问题相对比较复杂,我们首先引入具体的问题场景,然后基于此介绍各种优化方案。

问题场景

我们先假设一个问题场景:

要获得的结果是每个买家在各个级别卖家的成交比例信息,比如:

正如 mapjoin 中的例子一样,我们的第一反应是直接 join 表并统计:

select  m.buyer_id  ,sum(pay_cnt_90d) as pay_cnt_90d  ,sum(case when m.s_level=O then pay_cnt_90d end) as pay_cnt_90d_s0  ,sum(case when m.s_level=l then pay_cnt_90d end) as pay_cnt_90d_sl  ,sum(case when m.s_level=2 then pay_cnt_90d end) as pay_cnt_90d_s2  ,sum(case when m.s level=3 then pay cnt 90d end) as pay_cnt_90d_s3 ,sum(case when m.s_level=4 then pay_cnt_90d end) as pay_cnt_90d_s4  ,sum(case when m.s_level=S then pay_cnt_90d end) as pay_cnt_90d_s5  from  ( select  a.buyer_id,a.seller_id,b.s_level,a.pay_cnt_90d  from  ( select buyer_id ,seller_id,pay_cnt_90d  from table A  ) a  join  ( select seller_id,s_level  from table B  ) b  on a.seller_id=b.seller_id  ) m  group by m.buyer_id

但是此 SQL 会引起数据倾斜,原因在于卖家的二八准则。某些卖家 90 天内会有几百万甚至上千万的买家,但是大部分卖家 90 天内的买家数目并不多,  join table_A 和table_B 的时候 ODPS 会按照 Seller_id 进行分发, table_A 的大卖家引起了数据倾斜。

「但是本数据倾斜问题无法用 mapjoin table_B 解决,因为卖家有超过千万条、文件大小几个GB ,超过了 mapjoin 表最大 1GB  的限制。」

方案 1:转化为 mapjoin

大表无法直接mapjoin,那么是否可以间接呢?实际上此思路有两种途径:限制行和限制列。

select   m.buyer_id   ,sum(pay_cnt_90d) as pay_cnt_90d   ,sum(case when m.s_level=O then pay_cnt_90d end) as pay_cnt_90d_s0   ,sum(case when m.s_level=l then pay_cnt_90d end) as pay_cnt_90d_sl   ,sum(case when m.s_level=2 then pay_cnt_90d end) as pay_cnt_90d_s2   ,sum(case when m.s level=3 then pay cnt 90d end) as pay_cnt_90d_s3  ,sum(case when m.s_level=4 then pay_cnt_90d end) as pay_cnt_90d_s4   ,sum(case when m.s_level=S then pay_cnt_90d end) as pay_cnt_90d_s5   from   (  select /*+mapjoin(b)*/  a.buyer_id,a.seller_id,b.s_level,a.pay_cnt_90d   from   (  select buyer_id ,seller_id,pay_cnt_90d   from table_A   ) a   join   (  select b0.seller id,s_level   from table_B b0      join      (select seller_id from table_A group by seller_id) a0      on b0.seller_id=a0.seller_id  ) b   on a.seller_id=b.seller_id   ) m   group by m.buyer_id

此方案在一些情况下可以起作用,但很多时候还是无法解决上述问题,因为大部分卖家尽管 90 买家不多 ,但还是有一些的,过滤后的 B 表仍然很大。

方案 2:join 时用 case when 语句

应用场景为: 倾斜的值是明确的而且数量很少,比如null值引起的倾斜。

将这些引起倾斜的值随机分发到Reduce,其主要核心逻辑在于 join 时对这些特殊值concat 随机数,从而达到随机分发的目的。核心逻辑如下:

Select a.user_id,a.order_id,b.user_id    From table_a a    Join table_b b    On (case when a.user_id is null then concat ('hive' ,rand()) else a.user_id end)=b.user_id

Hive已对此进行了优化,不需要修改SQL,只需要设置参数;比如 table_B 的值 "0" 和 "1" 引起倾斜,只需要如下设置:

set hive.optimize.skewinfo=table_B:(seller_id)[("0")("1")];    set hive.optimize.skewjoin=true;

但是方案二还是不能解决上述问题,因为倾斜的卖家大量存在而且动态变化。

方案 3:倍数B表,再取模join

通用方案

是建立一个numbers表,其值只有一列int行,比如从1到10(具体根据倾斜程度确定),然后放大B表10倍,再取模join。

select    m,buer_id   ,sum(pay_cnt_90d) as pay_cnt_90d    ,sum(case when m.s_level=O then pay_cnt_90d end) as pay cnt 90d so    ,sum(case when m.s_level=l then pay cnt 90d end) as pay cnt 90d_sl    ,sum(case when m.s_level=2 then pay_cnt_90d end) as pay_cnt_90d s2    ,sum(case when m.s_level=3 then pay_cnt_90d end) as pay_cnt_90d_s3    ,sum(case when m.s_level=4 then pay_cnt_90d end) as pay cnt 90d s4    ,sum(case when m.s level=S then pay cnt 90d end) as pay cnt 90d s5    from    (   select    a.buyer_id,a.seller_id,b.s_level,a.pay_cnt_90d    from   (   select buyer_id,seller_id,pay_cnt_90d    from table_A    ) a    JOin    (   select /*+mapjoin(members)*/    seller_id,s_level,member    from table_B    join    numbers    ) b    on a.seller_id=b.seller_id    and mod(a.pay_cnt_90d,10)+1=b.number    ) m    group by m.buyer_id

思路核心在于:既然按照seller_id分发会倾斜,那么再人工增加一列进行分发,这样之前倾斜的值的倾斜程度会减少为原来的1/10。可以通过配置numbers表修改放大倍数来降低倾斜程度,但弊端就是B表会膨胀N倍。

专有方案

通用方案思路是把B表的每条数据都放大了相同的倍数,实际上只需要把大卖家放大倍数即可。

首先需要知道大卖家的名单,即先建立一个临时表动态存放每日最新的大卖家(比如dim_big_seller),同时此表的大卖家要膨胀预先设定的倍数(比如1000倍)。

在A表和 B表中分别新建一个 join 列,其逻辑为:如果是大卖家,那么 concat 一个随 机分配正整数(0到预定义的倍数之间,本例为0~1000  );如果不是,保持不变。

Hive数据倾斜的示例分析

相比通用方案,专用方案的运行效率明显好了很多,因为只是将B表中大卖家的行数放大了 1000  倍,其他卖家的行数保持不变,但同时也可以看到代码也复杂了很多,而且必须首先建立大卖家表。

方案 4:动态一分为二

实际上方案 2 和 3 都用到了一分为二的思想,但是都不彻底,对于 mapjoin 不能解决的 问题,终极解决方案就是动态一分为  ,即对倾斜的键值和不倾斜的键值分开处理,不倾 斜的正常 join 即可,倾斜的把它们找出来然后做 mapjoin ,最后 union all  其结果即可。

但是此种解决方案比较麻烦,代码会变得复杂而且需要一个临时表存放倾斜的键值。

Hive数据倾斜的示例分析

- 对于 90 天买家数超过 10000 的卖家直接 map join ,对于其他卖家正常 join 即可

- 对于 90 天买家数超过 10000 的卖家直接 map join ,对于其他卖家正常 join 即可 select  m.buyer_id  ,sum(pay_cnt_90d) as pay_cnt_90d  ,sum(case when rn.s_level=O then pay_cnt_90d end) as pay_cnt_90d_s0  ,sum(case when rn.s_level=l then pay_cnt_90d end) as pay_cnt_90d_sl  ,sum(case when rn.s_level=2 then pay_cnt_90d end) as pay_cnt_90d_s2  ,sum(case when rn.s_level=3 then pay_cnt_90d end) as pay_cnt_90d_s3  ,sum(case when rn.s_level=4 then pay_cnt_90d end) as pay_cnt_90d_s4  ,sum(case when rn.s_level=S then pay_cnt_90d end) as pay_cnt_90d_s5 from ( select      a.buyer_id,a.seller_id,b.s_level,a.pay_cnt_90d     from     (     select buyer_id,seller_id,pay_cnt_90d         from table_A     ) a     join     (      select seller_id ,a.s_level         from table_A a         left outer join tmp_table_B b         on a.user_id = b.seller_id         where b.seller_id is null     ) b  on a.seller id=b.seller id  union all  select /*+mapjoin(b)*/  a.buyer_id,a.seller_id,b.s_level,a.pay_cnt_90d  from  select buyer_id,seller_id,pay_cnt_90d  from table A  ) a  join  select seller_id,s_level  from table B  ) b  on a.seller id=b.seller id ) m group by m.buyer_id ) m group by m.byer_id

总结起来,方案 1、2 以及方案 3 中的通用方案不能保证解决大表 join 大表问题,因为它们都存在种种不同的限制和特定的使用场景。

而方案 3 的专用方案和方案 4 是比较推荐的优化方案,但是它们都需要新建一个临时表来存放每日动态变化的大卖家 。

相对方案 4 来说,方案 3 的专用方案不需要对代码框架进行修改,但是 B 表会被放大,所以一定要是维度表,不然统计结果会是错误的 。方案 4  的解决方案最通用,自由度最高,但是对代码的更改也最大,甚至需要更改代码框架,可作为终极方案来使用。

关于“Hive数据倾斜的示例分析”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,使各位可以学到更多知识,如果觉得文章不错,请把它分享出去让更多的人看到。

推荐阅读:
  1. hive中数据倾斜
  2. hive的数据倾斜以及常用的优化方法

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

hive

上一篇:linux上的并行软件ParaFly怎么用

下一篇:Hive怎么优化查询效率

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》