IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> 关于处理小文件数过多影响sql效率的调优问题 -> 正文阅读

[大数据]关于处理小文件数过多影响sql效率的调优问题

背景:sparksql执行过程中,发现task数目特别多,大大降低了执行的效率,经排查后发现是某张表的底层文件数过多,且每个文件大小都很小,也就是出现了小文件过多的情况

原理:

此处要区分spark任务和hive任务在落盘时候是不同的

spark任务可以直接通过设定repartition(N)的命令来设置每个分区下的文件数目,同时在sql查询末加上distribute by rand()来避免文件大小不均以及数据倾斜的问题,这里不多描述

hive任务略有不同

首先reducer数目直接影响到的就是生成文件的数目

设置reducer数目可以通过set mapred.reduce.tasks=N来设置

这里要解释下distribute by rand() 和 distribute by XXX(通常是分区字段)的区别(区别在reducer=1时体现不出)

前者是根据rand生成的随机数和reducer取模后分配到对应的reducer进行计算,因此数量上比较平均,且每个分区生成N个大小差不多的文件

后者是根据XX字段相同的记录分配到同一个reducer进行计算,因此每个分区生成1个文件,因为同个分区都只有一个reducer,但可能导致数据倾斜

解决办法:

写python脚本,自己读取自己的数据,然后insert overwrite本身 设置reducer数目为1且distribute by分区

  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2021-08-06 21:12:14  更:2021-08-06 21:12:33 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年5日历 -2024/5/17 18:27:39-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码