[关闭]
@hadoopMan 2018-08-29T14:20:22.000000Z 字数 6211 阅读 2978

hive数据倾斜及优化总结

hive

0,严格模式

对分区表进行查询,在where子语句中没有加分区过滤的话,将禁止提交任务(默认:nostrict)。
严格模式设置方法:

  1. set hive.mapred.mode=strict;

注意:使用严格模式将禁止3种类型的查询:
(1).对于分区表,不加分区字段过滤条件不能执行
(2).对于order by语句,必须使用limit语句。
(3).限制笛卡尔积的查询(join的时候不使用on,而使用where的).

1. hive中桶的概述

对于每一个表(table)或者分区, Hive可以进一步组织成桶,也就是说桶是更为细粒度的数据范围划分。Hive也是 针对某一列进行桶的组织。Hive采用对列值哈希,然后除以桶的个数求余的方式决定该条记录存放在哪个桶当中。
把表(或者分区)组织成桶(Bucket)有两个理由:

(1)获得更高的查询处理效率。桶为表加上了额外的结构,Hive 在处理有些查询时能利用这个结构。具体而言,连接两个在(包含连接列的)相同列上划分了桶的表,可以使用 Map 端连接 (Map-side join)高效的实现。比如JOIN操作。对于JOIN操作两个表有一个相同的列,如果对这两个表都进行了桶操作。那么将保存相同列值的桶进行JOIN操作就可以,可以大大较少JOIN的数据量。

(2)使取样(sampling)更高效。在处理大规模数据集时,在开发和修改查询的阶段,如果能在数据集的一小部分数据上试运行查询,会带来很多方便。
1. 创建带桶的 table

  1. create table bucketed_user(id int,name string) clustered by (id) sorted by(name) into 4 buckets row format delimited fields terminated by '\t' stored as textfile;

首先,我们来看如何告诉Hive—个表应该被划分成桶。我们使用CLUSTERED BY 子句来指定划分桶所用的列和要划分的桶的个数:

  1. CREATE TABLE bucketed_user (id INT) name STRING)
  2. CLUSTERED BY (id) INTO 4 BUCKETS;

在这里,我们使用用户ID来确定如何划分桶(Hive使用对值进行哈希并将结果除 以桶的个数取余数。这样,任何一桶里都会有一个随机的用户集合(PS:其实也能说是随机,不是吗?)。

对于map端连接的情况,两个表以相同方式划分桶。处理左边表内某个桶的 mapper知道右边表内相匹配的行在对应的桶内。因此,mapper只需要获取那个桶 (这只是右边表内存储数据的一小部分)即可进行连接。这一优化方法并不一定要求 两个表必须桶的个数相同,两个表的桶个数是倍数关系也可以。用HiveQL对两个划分了桶的表进行连接,可参见“map连接”部分(P400)。

桶中的数据可以根据一个或多个列另外进行排序。由于这样对每个桶的连接变成了高效的归并排序(merge-sort), 因此可以进一步提升map端连接的效率。以下语法声明一个表使其使用排序桶:

  1. CREATE TABLE bucketed_users (id INT, name STRING)
  2. CLUSTERED BY (id) SORTED BY (id ASC) INTO 4 BUCKETS;

我们如何保证表中的数据都划分成桶了呢?把在Hive外生成的数据加载到划分成 桶的表中,当然是可以的。其实让Hive来划分桶更容易。这一操作通常针对已有的表。

Hive并不检查数据文件中的桶是否和表定义中的桶一致(无论是对于桶 的数量或用于划分桶的列)。如果两者不匹配,在査询时可能会碰到错 误或未定义的结果。因此,建议让Hive来进行划分桶的操作。

2.hive中join优化

2.1 mapside join

方法一:
老版本

  1. select /*+ MAPJOIN(time_dim) */ count(*) from
  2. store_sales join time_dim on (ss_sold_time_sk = t_time_sk)

方法二:
这个可以由hive自动进行map端join

  1. set hive.auto.convert.join=true;
  2. select count(*) from
  3. store_sales join time_dim on (ss_sold_time_sk = t_time_sk)

2.2,执行下面这段代码将会产生两个map-only方法:

  1. select /*+ MAPJOIN(time_dim, date_dim) */ count(*) from
  2. store_sales
  3. join time_dim on (ss_sold_time_sk = t_time_sk)
  4. join date_dim on (ss_sold_date_sk = d_date_sk)
  5. where t_hour = 8 and d_year = 2002

设置下面两个属性hive将会进行自动执行上述过程,第一个属性默认为true,第二个属性是设置map端join适合读取内存文件的大小。

  1. set hive.auto.convert.join.noconditionaltask = true;
  2. set hive.auto.convert.join.noconditionaltask.size = 10000000;

2.3,Sort-Merge-Bucket (SMB) joins可以被转化为SMB map joins。我们只需要设置一下几个参数即可:

  1. set hive.auto.convert.sortmerge.join=true;
  2. set hive.optimize.bucketmapjoin = true;
  3. set hive.optimize.bucketmapjoin.sortedmerge = true;

2.4,也可已设置大表选择的策略,使用下面属性:

  1. set hive.auto.convert.sortmerge.join.bigtable.selection.policy
  2. = org.apache.hadoop.hive.ql.optimizer.TableSizeBasedBigTableSelectorForAutoSMJ;

总共有以下几个策略可提供设置:

  1. org.apache.hadoop.hive.ql.optimizer.AvgPartitionSizeBasedBigTableSelectorForAutoSMJ (default)
  2. org.apache.hadoop.hive.ql.optimizer.LeftmostBigTableSelectorForAutoSMJ
  3. org.apache.hadoop.hive.ql.optimizer.TableSizeBasedBigTableSelectorForAutoSMJ

详细请参考一下连接:
hive中进行连接方案详解

3,数据倾斜

Hive的执行是分阶段的,map处理数据量的差异取决于上一个stage的reduce输出,所以如何将数据均匀的分配到各个reduce中,就是解决数据倾斜的根本所在。

3.1 操作

数据倾斜的原因.png-12.7kB

3.2原因

1,数据在节点上分布不均
2,key分布不均(key中存在个别值数据量比较大,比如NULL,那么join时就会容易发生数据倾斜).
3,count(disctinct key),在数据两比较大的时候容易发生数据倾斜,因为count(distinct)是按照group by字段进行分组的。
4,group by的使用容易造成数据倾斜。
5,业务数据本身的特性
6,建表时考虑不周
7,某些SQL语句本身就有数据倾斜

3.3 表现

任务进度长时间维持在99%左右,查看任务监控页面发现只有少量reduce任务未完成。因为其处理的数据量和其他reduce差异过大。单一reduce的记录数与平均记录数差异过大,通常可能达到3倍甚至更多。最长时长远大于平均时长。

4,数据倾斜的解决方案

4.1 参数调节

  1. set hive.map.aggr=true;
  2. Map 端部分聚合,相当于Combiner
  1. set hive.groupby.skewindata=true;

有数据倾斜的时候进行负载均衡,当选项设定为 true,生成的查询计划会有两个 MR Job。第一个 MR Job 中,Map 的输出结果集合会随机分布到 Reduce 中,每个 Reduce 做部分聚合操作,并输出结果,这样处理的结果是相同的 Group By Key 有可能被分发到不同的 Reduce 中,从而达到负载均衡的目的;第二个 MR Job 再根据预处理的数据结果按照 Group By Key 分布到 Reduce 中(这个过程可以保证相同的 Group By Key 被分布到同一个 Reduce 中),最后完成最终的聚合操作。
负载均衡.png-44.8kB

4.2 SQL语句调节:

如何Join:

关于驱动表的选取,选用join key分布最均匀的表作为驱动表
做好列裁剪和filter操作,以达到两表做join的时候,数据量相对变小的效果。

大小表Join:

使用map join让小的维度表(1000条以下的记录条数) 先进内存。在map端完成reduce.

大表Join大表:

把空值的key变成一个字符串加上随机数,把倾斜的数据分到不同的reduce上,由于null值关联不上,处理后并不影响最终结果。
count distinct大量相同特殊值
容易倾斜,当xx字段存在大量的某个值时,NULL或者空的记录

解决思路
将特定的值,进行特定的处理。
比如是null,
* 过滤掉,where case
* 特定方式转换特定的值,使得这些值不一样,同时这些值不影响分析。

group by维度过小:

Group by
在Map端进行部分数据合并

set hive.map.aggr ; --> 是否在Map端进行数据聚合,默认设置为true;
set hive.groupby.mapaggr.checkinterval ; --> 在Map端进行聚合操作的条目数。
进行负载均衡负载均衡
set hive.groupby.skewindata ;
默认值是false,需要设置成true ;
当设置为true时,会变成两个MapReduce ;

>
第一个MR JOb中,map的输出结果会随机分布到Reduce中,每个Reduce做部分聚合操作,并输出结果,这样出来的结果相同的Group By Key有可能被分发到不同的Reduce中,从而达到辅助均衡目的。
>
第二个MR JOb,会根据预处理数据结果按照key分布到Reduce中,最终完成聚合操作。

网络参考:
采用sum() group by的方式来替换count(distinct)完成计算。
特殊情况特殊处理:
在业务逻辑优化效果的不大情况下,有些时候是可以将倾斜的数据单独拿出来处理。最后union回去。

5,典型的业务场景

5.1 空值产生的数据倾斜

场景:如日志中,常会有信息丢失的问题,比如日志中的 user_id,如果取其中的 user_id 和 用户表中的user_id 关联,会碰到数据倾斜的问题。
解决方法1: user_id为空的不参与关联(红色字体为修改后)

  1. select * from log a
  2. join users b
  3. on a.user_id is not null
  4. and a.user_id = b.user_id
  5. union all
  6. select * from log a
  7. where a.user_id is null;

解决方法2 :赋与空值分新的key值

  1. select *
  2. from log a
  3. left outer join users b
  4. on case when a.user_id is null then concat(‘hive’,rand() ) else a.user_id end = b.user_id;

结论:方法2比方法1效率更好,不但io少了,而且作业数也少了。解决方法1中 log读取两次,jobs是2。解决方法2 job数是1 。这个优化适合无效 id (比如 -99 , ’’, null 等) 产生的倾斜问题。把空值的 key 变成一个字符串加上随机数,就能把倾斜的数据分到不同的reduce上 ,解决数据倾斜问题。

5.2 不同数据类型关联产生数据倾斜

场景:用户表中user_id字段为int,log表中user_id字段既有string类型也有int类型。当按照user_id进行两个表的Join操作时,默认的Hash操作会按int型的id来进行分配,这样会导致所有string类型id的记录都分配到一个Reducer中。
解决方法:把数字类型转换成字符串类型

  1. select * from users a
  2. left outer join logs b
  3. on a.usr_id = cast(b.user_id as string)

5.3 小表不小不大,怎么用 map join 解决倾斜问题

使用 map join解决小表(记录数少)关联大表的数据倾斜问题,这个方法使用的频率非常高,但如果小表很大,大到map join会出现bug或异常,这时就需要特别的处理。 以下例子:

  1. select * from log a
  2. left outer join users b
  3. on a.user_id = b.user_id;

users 表有 600w+ 的记录,把 users 分发到所有的 map 上也是个不小的开销,而且 map join 不支持这么大的小表。如果用普通的 join,又会碰到数据倾斜的问题。
解决方法:

  1. select /*+mapjoin(x)*/* from log a
  2. left outer join (
  3. select /*+mapjoin(c)*/d.*
  4. from ( select distinct user_id from log ) c
  5. join users d
  6. on c.user_id = d.user_id
  7. ) x
  8. on a.user_id = b.user_id;

假如,log里user_id有上百万个,这就又回到原来map join问题。所幸,每日的会员uv不会太多,有交易的会员不会太多,有点击的会员不会太多,有佣金的会员不会太多等等。所以这个方法能解决很多场景下的数据倾斜问题。

6,数据倾斜总结

使map的输出数据更均匀的分布到reduce中去,是我们的最终目标。由于Hash算法的局限性,按key Hash会或多或少的造成数据倾斜。大量经验表明数据倾斜的原因是人为的建表疏忽或业务逻辑可以规避的。在此给出较为通用的步骤:
1、采样log表,哪些user_id比较倾斜,得到一个结果表tmp1。由于对计算框架来说,所有的数据过来,他都是不知道数据分布情况的,所以采样是并不可少的。
2、数据的分布符合社会学统计规则,贫富不均。倾斜的key不会太多,就像一个社会的富人不多,奇特的人不多一样。所以tmp1记录数会很少。把tmp1和users做map join生成tmp2,把tmp2读到distribute file cache。这是一个map过程。
3、map读入users和log,假如记录来自log,则检查user_id是否在tmp2里,如果是,输出到本地文件a,否则生成的key,value对,假如记录来自member,生成的key,value对,进入reduce阶段。
4、最终把a文件,把Stage3 reduce阶段输出的文件合并起写到hdfs。

如果确认业务需要这样倾斜的逻辑,考虑以下的优化方案:
1、对于join,在判断小表不大于1G的情况下,使用map join
2、对于group by或distinct,设定

  1. hive.groupby.skewindata=true

3、尽量使用上述的SQL语句调节进行优化

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注