第一章 数据质量
1.1 概述
数据质量的高低代表了该数据满足数据消费者期望的程度,这种程度基于他们对数据的使用预期,只有达到数据的使用预期才能给予管理层正确的决策参考。数据质量管理作为数据仓库的一个重要模块,主要可以分为数据的健康标准量化、监控和保障。
1.2. 数据质量标准分类
① 数据完整性: 数据不存在大量的缺失值、不缺少某一日期/部门/地点等部分维度的数据,同时在ETL过程当中应保证数据的完整不丢失。验证数据时总数应符合正常规律时间推移,记录数总数的增长符合正常的趋势。 ② 数据一致性: 数仓各层的数据,应与上一层保持数据一致,最终经过数据清洗转化(ETL)的宽表/指标能和数据源保持一致。 ③ 数据不重复性:一个数据集当中同一条数据记录不能出现多次,数据不能大量重复冗余,保证数据的唯一性。
1.3 数据质量管理解决方案
本文通过Shell命令和Hive脚本的方式,通过验证增量数据的记录数、全表空值记录数、全表记录数、全表重复值记录数是否在合理的范围之内,以及验证数据来源表和目标表一致性,确定当日的数据是否符合健康标准,达到数据质量的监控与管理。
第2章 ODS层数据校验
2.1 数据校验通用脚本
通过shell脚本调用hive,检验当日分区增加的记录数量和全表记录数量是否在合理的范围之内,同时检验关键字段为空的记录的记录数量以及重复值的数量。
1)创建数据检查脚本文件夹,用于存放数据校验shell脚本
[atguigu@hadoop102 module]$ mkdir -p data_check/sh
[atguigu@ hadoop102 sh]$ pwd /opt/module/data_check/sh
2)在Hive中创建表数据质量校验记录表,记录数据校验的各个指标:
[atguigu@atguigu data_check]$ hive
创建数据库,用于存放数据质量校验的结果数据:
hive (default)> create database datacheck;
创建数据表,用于存放ods层的数据检验结果:
hive (datacheck)> create table datacheck.table_count_add_standard(
data_date string comment '数据时间分区dt',
database_name string comment '库名',
table_name string comment '表名',
table_type string comment '表类型(全量/增量)',
add_count bigint comment '当日增量数据的记录数',
null_count bigint comment '表空值记录数',
duplicate_count bigint comment '表重复值记录数',
total_count bigint comment '全表记录数'
);
hive (datacheck)>quit;
3)在路径/opt/module/data_check/sh下创建数据检验增量表通用shell脚本
[atguigu@hadoop102 sh]$ vim increment_data_check_public.sh
在脚本中编写如下内容:
do_date=$1
table_name=$2
null_column=$3
null_where_sql_str=''
array=(${null_column//,/ })
for(( i=0;i<${
if [ $i -eq 0 ];then
null_where_sql_str=" where ${array[i]} is null "
else
null_where_sql_str="$null_where_sql_str or ${array[i]} is null "
fi
done;
echo "------------------检验增量记录数--------------------"
add_count_query_result=`hive -e "select count(*) from gmall.$table_name where dt='$do_date'"`
add_count=${add_count_query_result:3}
echo "------------------检验全表记录数--------------------"
total_count_query_result=`hive -e "select count(*) from gmall.$table_name"`
total_count=${total_count_query_result:3}
echo "------------------检验空值记录数--------------------"
table_null_query_result=`hive -e "select count(*) from gmall.$table_name $null_where_sql_str"`
null_count=${table_null_query_result:3}
echo "------------------检验重复值记录数--------------------"
table_duplicate_query_result=`hive -e "select sum(tmp.duplicate_count) as duplicate_sum from (select count(*) as duplicate_count from gmall.$table_name group by $null_column having count(*)>1) as tmp"`
duplicate_count=${table_duplicate_query_result:3}
echo "------------------开始插入数据--------------------"
hive -e "insert into datacheck.table_count_add_standard values('$do_date','gmall','$table_name','increment_table', '$add_count', '$null_count', '$duplicate_count', '$total_count')"
脚本参数注释: 第一个参数:传入时间分区参数( dt ) 第二个参数:需要进行数据校验的表名( table_name ) 第三个参数:需要判断是否为空值或重复值的字段名称用逗号‘ ,’隔开,例如:col1,col2,col3 给脚本/opt/module/data_check/sh/increment_data_check_public.sh赋权限:
[atguigu@hadoop102 sh]$ chmod 777 increment_data_check_public.sh
脚本执行示例:
[atguigu@hadoop102 sh]$ ./increment_data_check_public.sh 2020-06-14 ods_activity_rule id,activity_id
4)在路径/opt/module/data_check/sh下创建数据检验全量表通用shell脚本
[atguigu@hadoop102 sh]$ vim total_data_check_public.sh
在脚本中编写如下内容:
do_date=$1
table_name=$2
null_column=$3
null_where_sql_str=''
array=(${null_column
for(( i=0;i<${
if [ $i -eq 0 ];then
null_where_sql_str=" where ${array[i]} is null "
else
null_where_sql_str="$null_where_sql_str or ${array[i]} is null "
fi
done;
table_count=${table_count_query_result:3}
echo "------------------检验全表记录数--------------------"
table_null_query_result=`hive -e "select count(*) from gmall.$table_name $null_where_sql_str"`
null_count=${table_null_query_result:3}
echo "------------------检验重复值--------------------"
table_duplicate_query_result=`hive -e "select sum(tmp.duplicate_count) as duplicate_sum from (select count(*) as duplicate_count from gmall.$table_name group by $null_column having count(*)>1) as tmp"`
duplicate_count=${table_duplicate_query_result:3}
echo "------------------开始插入数据--------------------"
hive -e "insert into datacheck.table_count_add_standard values('$do_date','gmall','$table_name','total_table',null, '$null_count', '$duplicate_count','$table_count')"
脚本参数注释: 第一个参数:传入数据校验日期( dt ) 第二个参数:需要进行数据校验的表名( table_name ) 第三个参数:需要判断是否为空值的字段名称用逗号’ , ‘隔开,例如:col1,col2,col3 给脚本/opt/module/data_check/sh/total_data_check_public.sh赋权限:
[atguigu@hadoop102 sh]$ chmod 777 total_data_check_public.sh
脚本执行示例:
[atguigu@hadoop102 sh]$ ./total_data_check_public.sh 2020-06-14 ods_activity_rule id,activity_id
2.2 ODS层各表检验
-
涉及表 增量检查 (1)订单详情表(ods_order_detail) (2)用户表(ods_user_info) (3)支付流水表(ods_payment_info) (4)订单状态表(ods_order_status_log) (5)商品评论表(ods_comment_info) (6)退单表(ods_order_refund_info) (7)活动订单关联表(ods_activity_order) 全量检查 (1)订单表(ods_order_info) (2)SKU商品表(ods_sku_info) (3)商品一级分类表(ods_base_category1) (4)商品二级分类表(ods_base_category2) (5)商品三级分类表(ods_base_category3) (6)品牌表(ods_base_trademark) (7)SPU商品表(ods_spu_info) (8)加购表(ods_cart_info) (9)商品收藏表(ods_favor_info) (10)优惠券领用表(ods_coupon_use) (11)优惠券表(ods_coupon_info) (12)活动表(ods_activity_info) (13)优惠规则表(ods_activity_rule) (14)编码字典表(ods_base_dic) -
ODS层数据检查脚本 1)在路径/opt/module/data_check/sh下创建ODS层数据检查脚本
[atguigu@atguigu sh]$ pwd /opt/module/data_check/sh
[atguigu@atguigu sh]$ vim ods_data_check.sh
|