大数据技术之MapReduce
第 1 章 MapReduce 概述
1.1 MapReduce 定义
MapReduce 是一个分布式运算程序的编程框架,是用户开发“基于 Hadoop 的数据分析应用”的核心框架。
MapReduce 核心功能是将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序,并发运行在一个 Hadoop 集群上。
1.2 MapReduce 优缺点
1.2.1 优点
- MapReduce 易于编程
它简单的实现一些接口,就可以完成一个分布式程序,这个分布式程序可以分布到大量廉价的 PC 机器上运行。也就是说你写一个分布式程序,跟写一个简单的串行程序是一模一样的。就是因为这个特点使得 MapReduce 编程变得非常流行。 - 良好的扩展性
当你的计算资源不能得到满足的时候,你可以通过简单的增加机器来扩展它的计算能力。 - 高容错性
MapReduce 设计的初衷就是使程序能够部署在廉价的 PC 机器上,这就要求它具有很高的容错性。比如其中一台机器挂了,它可以把上面的计算任务转移到另外一个节点上运行,不至于这个任务运行失败,而且这个过程不需要人工参与,而完全是由Hadoop内部完成的。 - 适合PB级以上海量数据的离线处理
可以实现上千台服务器集群并发工作,提供数据处理能力。
1.2.2 缺点
-
不擅长实时计算 MapReduce 无法像 MySQL 一样,在毫秒或者秒级内返回结果。 -
不擅长流式计算 流式计算的输入数据是动态的,而 MapReduce 的输入数据集是静态的,不能动态变化。这是因为 MapReduce 自身的设计特点决定了数据源必须是静态的。 -
不擅长DAG(有向无环图)计算 多个应用程序存在依赖关系,后一个应用程序的输入为前一个的输出。在这种情况下,MapReduce 并不是不能做,而是使用后,每个 MapReduce 作业的输出结果都会写入到磁盘,会造成大量的磁盘 IO,导致性能非常的低下。
1.3 MapReduce 核心
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-VI4JZtZZ-1627014737672)(img/1616055473005.png)]](https://img-blog.csdnimg.cn/4f30688a140a44bbbd9e3145f01927b3.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3pqZjE2NjUxMTk4MDM=,size_16,color_FFFFFF,t_70)
- 分布式的运算程序往往需要分成至少 2 个阶段。
- 第一个阶段的 MapTask 并发实例,完全并行运行,互不相干。
- 第二个阶段的 ReduceTask 并发实例互不相干,但是他们的数据依赖于上一个阶段的所有 MapTask 并发实例的输出。
- MapReduce 编程模型只能包含一个 Map 阶段和一个 Reduce 阶段,如果用户的业务逻辑非常复杂,那就只能多个 MapReduce 程序,串行运行。
总结:分析 WordCount 数据流走向深入理解 MapReduce 核心思想。
1.4 MapReduce 进程
一个完整的 MapReduce 程序在分布式运行时有三类实例进程:
- MrAppMaster:负责整个程序的过程调度及状态协调。
- MapTask:负责 Map 阶段的整个数据处理流程。
- ReduceTask:负责 Reduce 阶段的整个数据处理流程。
1.5 官方 WordCount 源码
采用反编译工具反编译源码,发现 WordCount 案例有 Map 类、Reduce 类和驱动类。且数据的类型是 Hadoop 自身封装的序列化类型。
1.6 常用数据序列化类型
Java 类型 | Hadoop Writable 类型 |
---|
Boolean | BooleanWritable | Byte | ByteWritable | Int | IntWritable | Float | FloatWritable | Long | LongWritable | Double | DoubleWritable | String | Text | Map | MapWritable | Array | ArrayWritable | Null | NullWritable |
1.7 MapReduce 编程规范
用户编写的程序分成三个部分:Mapper、Reducer 和 Driver。
-
Mapper阶段
- 用户自定义的Mapper要继承自己的父类
- Mapper的输入数据是KV对的形式(KV的类型可自定义)
- Mapper中的业务逻辑写在map()方法中
- Mapper的输出数据是KV对的形式(KV的类型可自定义)
- map()方法(MapTask进程)对每一个<K,V>调用一次
-
Reducer阶段
-
用户自定义的Reducer要继承自己的父类 -
Reducer的输入数据类型对应Mapper的输出数据类型,也是KV -
Reducer的业务逻辑写在reduce()方法中 -
ReduceTask进程对每一组相同k的<k,v>组调用一次reduce()方法 -
Driver阶段 相当于YARN集群的客户端,用于提交我们整个程序到YARN集群,提交的是封装了MapReduce程序相关运行参数的job对象
1.8 WordCount 案例实操
1.8.1 本地测试
-
需求分析 ![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-bpwY0dHs-1627014737676)(img/1616056404329.png)]](https://img-blog.csdnimg.cn/2047eb041f0443c8a0b917576ef548cc.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3pqZjE2NjUxMTk4MDM=,size_16,color_FFFFFF,t_70) -
环境 准备 (1)创建 maven 工程,MapReduceDemo (2)在 pom.xml 文件中添加如下依赖 <dependencies>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-client</artifactId>
<version>3.2.1</version>
</dependency>
<dependency>
<groupId>junit</groupId>
<artifactId>junit</artifactId>
<version>4.12</version>
</dependency>
<dependency>
<groupId>org.slf4j</groupId>
<artifactId>slf4j-log4j12</artifactId>
<version>1.7.30</version>
</dependency>
</dependencies>
(2)在项目的 src/main/resources 目录下,新建一个文件,命名为“log4j.properties”,在 文件中填入。 log4j.rootLogger=INFO, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
log4j.appender.logfile=org.apache.log4j.FileAppender
log4j.appender.logfile.File=target/spring.log
log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n
(3)创建包名:com.atguigu.mapreduce.wordcount -
编写代码
(1)编写 Mapper 类
public class WordCountMapper extends Mapper<LongWritable, Text, Text, IntWritable>
{
Text k = new Text();
IntWritable v = new IntWritable(1);
@Override
protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException
{
String line = value.toString();
String[] words = line.split(" ");
for (String word : words)
{
k.set(word);
context.write(k, v);
}
}
}
(2)编写 Reducer 类
public class WordCountReducer extends Reducer<Text, IntWritable, Text, IntWritable>
{
int sum;
IntWritable v = new IntWritable();
@Override
protected void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException
{
sum = 0;
for (IntWritable count : values)
{
sum += count.get();
}
v.set(sum);
context.write(key,v);
}
}
(3)编写 Driver 驱动类
public class WordCountDriver
{
public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException
{
Configuration conf = new Configuration();
Job job = Job.getInstance(conf);
job.setJarByClass(WordCountDriver.class);
job.setMapperClass(WordCountMapper.class);
job.setReducerClass(WordCountReducer.class);
job.setMapOutputKeyClass(Text.class);
job.setMapOutputValueClass(IntWritable.class);
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(IntWritable.class);
FileInputFormat.setInputPaths(job, new Path("input/input.txt"));
FileOutputFormat.setOutputPath(job, new Path("output/"));
boolean result = job.waitForCompletion(true);
System.out.println(result ? 0 : 1);
}
}
- 本地测试
(1)需要首先配置好 HADOOP_HOME 变量以及 Windows 运行依赖 (2)在 IDEA/Eclipse 上运行程序
1.8.2 提交到集群测试
集群上测试 (1)用 maven 打 jar 包,需要添加的打包插件依赖
<build>
<plugins>
<plugin>
<artifactId>maven-compiler-plugin</artifactId>
<version>3.6.1</version>
<configuration>
<source>1.8</source>
<target>1.8</target>
</configuration>
</plugin>
<plugin>
<artifactId>maven-assembly-plugin</artifactId>
<configuration>
<descriptorRefs>
<descriptorRef>jar-with-dependencies</descriptorRef>
</descriptorRefs>
</configuration>
<executions>
<execution>
<id>make-assembly</id>
<phase>package</phase>
<goals>
<goal>single</goal>
</goals>
</execution>
</executions>
</plugin>
</plugins>
</build>
注意:如果工程上显示红叉。在项目上右键->maven->Reimport 刷新即可。 (2)将程序打成 jar 包 ![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-yOsTTf4C-1627014737679)(img/1616119274541.png)]](https://img-blog.csdnimg.cn/b071393f08684e2483679b6c07e38f5e.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3pqZjE2NjUxMTk4MDM=,size_16,color_FFFFFF,t_70)
(3)修改不带依赖的 jar 包名称为 wc.jar,并拷贝该 jar 包到 Hadoop 集群的/opt/module/hadoop-3.1.3 路径。 (4)启动 Hadoop 集群
[atguigu@hadoop102 hadoop-3.1.3]$ sbin/start-dfs.sh
[atguigu@hadoop103 hadoop-3.1.3]$ sbin/start-yarn.sh
(5)执行 WordCount 程序
[atguigu@hadoop102 hadoop-3.1.3]$ hadoop jar wc.jar com.atguigu.mapreduce.wordcount.WordCountDriver /user/atguigu/input /user/atguigu/output
第 2 章 Hadoop 序列化
2.1 序列化概述
- 什么是序列化
序列化就是把内存中的对象,转换成字节序列(或其他数据传输协议)以便于存储到磁盘(持久化)和网络传输。 反序列化就是将收到字节序列(或其他数据传输协议)或者是磁盘的持久化数据,转换成内存中的对象。 - 为什么要序列化
一般来说,“活的”对象只生存在内存里,关机断电就没有了。而且“活的”对象只能由本地的进程使用,不能被发送到网络上的另外一台计算机。 然而序列化可以存储“活的”对象,可以将“活的”对象发送到远程计算机。 - 为什么不用 Java 的序列化
Java 的序列化是一个重量级序列化框架(Serializable),一个对象被序列化后,会附带很多额外的信息(各种校验信息,Header,继承体系等),不便于在网络中高效传输。所以,Hadoop 自己开发了一套序列化机(Writable)。 - Hadoop 序列化特点:
- 紧凑 :高效使用存储空间。
- 快速:读写数据的额外开销小。
- 互操作:支持多语言的交互。
2.2 自定义 bean 对象实现序列化接口(Writable )
在企业开发中往往常用的基本序列化类型不能满足所有需求,比如在 Hadoop 框架内部传递一个 bean 对象,那么该对象就需要实现序列化接口。 具体实现 bean 对象序列化步骤如下 7 步。
-
必须实现 Writable 接口 -
反序列化时,需要反射调用空参构造函数,所以必须有空参构造 public FlowBean() {
super();
}
-
重写序列化方法 @Override
public void write(DataOutput out) throws IOException {
out.writeLong(upFlow);
out.writeLong(downFlow);
out.writeLong(sumFlow);
}
-
重写反序列化方法 @Override
public void readFields(DataInput in) throws IOException {
upFlow = in.readLong();
downFlow = in.readLong();
sumFlow = in.readLong();
}
-
注意反序列化的顺序和序列化的顺序完全一致 -
要想把结果显示在文件中,需要重写 toString(),可用"\t"分开,方便后续用。 -
如果需要将自定义的 bean 放在 key 中传输,则还需要实现 Comparable 接口,因为MapReduce 框中的 Shuffle 过程要求对 key 必须能排序。详见后面排序案例。 @Override
public int compareTo(FlowBean o) {
return this.sumFlow > o.getSumFlow() ? -1 : 1;
}
2.3 序列化案例实操
-
需求 统计每一个手机号耗费的总上行流量、总下行流量、总流量
-
需求分析  -
编写 MapReduce
-
编写流量统计的 Bean 对象
public class FlowBean implements Writable
{
private long upFlow;
private long downFlow;
private long sumFlow;
public FlowBean()
{
}
public long getUpFlow()
{
return upFlow;
}
public void setUpFlow(long upFlow)
{
this.upFlow = upFlow;
}
public long getDownFlow()
{
return downFlow;
}
public void setDownFlow(long downFlow)
{
this.downFlow = downFlow;
}
public long getSumFlow()
{
return sumFlow;
}
public void setSumFlow()
{
this.sumFlow = downFlow + upFlow;
}
@Override
public void write(DataOutput dataOutput) throws IOException
{
dataOutput.writeLong(upFlow);
dataOutput.writeLong(downFlow);
dataOutput.writeLong(sumFlow);
}
@Override
public void readFields(DataInput dataInput) throws IOException
{
this.upFlow = dataInput.readLong();
this.downFlow = dataInput.readLong();
this.sumFlow = dataInput.readLong();
}
@Override
public String toString() {
return upFlow + "\t" + downFlow + "\t" + sumFlow;
}
}
-
编写 Mapper 类 public class FlowMapper extends Mapper<LongWritable, Text, Text, FlowBean>
{
private Text outKey = new Text();
private FlowBean outValue = new FlowBean();
@Override
protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException
{
String line = value.toString();
String[] split = line.split("\t");
String phone = split[1];
String upFlow = split[split.length - 3];
String downFlow = split[split.length - 2];
outKey.set(phone);
outValue.setUpFlow(Long.parseLong(upFlow));
outValue.setDownFlow(Long.parseLong(downFlow));
outValue.setSumFlow();
context.write(outKey, outValue);
}
}
-
编写 Reducer 类 public class FlowReducer extends Reducer<Text, FlowBean, Text, FlowBean>
{
private FlowBean outVal=new FlowBean();
@Override
protected void reduce(Text key, Iterable<FlowBean> values, Context context) throws IOException, InterruptedException
{
long totalUp = 0;
long totalDown = 0;
for (FlowBean value : values)
{
totalUp += value.getUpFlow();
totalDown += value.getDownFlow();
}
outVal.setUpFlow(totalUp);
outVal.setDownFlow(totalDown);
outVal.setSumFlow();
context.write(key,outVal);
}
}
-
编写 Driver 驱动类 public class FlowDriver
{
public static void main(String[] args) throws IOException,
ClassNotFoundException, InterruptedException
{
Configuration conf = new Configuration();
Job job = Job.getInstance(conf);
job.setJarByClass(FlowDriver.class);
job.setMapperClass(FlowMapper.class);
job.setReducerClass(FlowReducer.class);
job.setMapOutputKeyClass(Text.class);
job.setMapOutputValueClass(FlowBean.class);
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(FlowBean.class);
FileInputFormat.setInputPaths(job, new Path("input/inputflow"));
FileOutputFormat.setOutputPath(job, new Path("output/inputflow"));
boolean b = job.waitForCompletion(true);
System.exit(b ? 0 : 1);
}
}
第 3 章 MapReduce 框架原理

3.1 InputFormat 数据输入
3.1.1 切片与 MapTask 并行度决定机制
-
问题引出 MapTask 的并行度决定 Map 阶段的任务处理并发度,进而影响到整个 Job 的处理速度。 思考:1G 的数据,启动 8 个 MapTask,可以提高集群的并发处理能力。那么 1K 的数据,也启动 8 MapTask,会提高集群性能吗?MapTask 并行任务是否越多越好呢?哪些因素影响了 MapTask 并行度? -
MapTask 并行度决定机制 数据块:Block 是 HDFS 物理上把数据分成一块一块。数据块是 HDFS 存储数据单位。 数据切片:数据切片只是在逻辑上对输入进行分片,并不会在磁盘上将其切分成片进行存储。数据切片是MapReduce 程序计算输入数据的单位,一个切片会对应启动一个MapTask。 ![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-qOAeLRfv-1627014737684)(img/1616133292984.png)]](https://img-blog.csdnimg.cn/1621d744909b4c77b35687b38e570f3d.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3pqZjE2NjUxMTk4MDM=,size_16,color_FFFFFF,t_70)
3.1.2 Job 提交流程源码和切片源码详解
-
Job 提交流程源码详解 waitForCompletion()
submit();
connect();
new Cluster(getConfiguration());
initialize(jobTrackAddr, conf);
submitter.submitJobInternal(Job.this, cluster)
Path jobStagingArea = JobSubmissionFiles.getStagingDir(cluster, conf);
JobID jobId = submitClient.getNewJobID();
copyAndConfigureFiles(job, submitJobDir);
rUploader.uploadFiles(job, jobSubmitDir);
writeSplits(job, submitJobDir);
maps = writeNewSplits(job, jobSubmitDir);
input.getSplits(job);
writeConf(conf, submitJobFile);
conf.writeXml(out);
status = submitClient.submitJob(jobId, submitJobDir.toString(),job.getCredentials());
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ktmTbavL-1627014737685)(img/1616136030931.png)]](https://img-blog.csdnimg.cn/3a5bd624c22e4f718791432480b5afbc.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3pqZjE2NjUxMTk4MDM=,size_16,color_FFFFFF,t_70) -
FileInputFormat 切片源码解析(input.getSplits(job) ) ![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-dvq0gAW1-1627014737685)(img/1616136138363.png)]](https://img-blog.csdnimg.cn/41934d4e932646edb7053426c7e1ef3d.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3pqZjE2NjUxMTk4MDM=,size_16,color_FFFFFF,t_70)
3.1.3 FileInputFormat 切片机制
-
切片机制
- 简单地按照文件的内容长度进行切片
- 切片大小,默认等于Block大小
- 切片时不考虑数据集整体,而是逐个针对每一个文件单独切片
-
案例分析
-
输入数据有两个文件: file1.txt 320M
file2.txt 10M
-
经过FileInputFormat的切片机制运算后,形成的切片信息如下: file1.txt.split1-- 0~128
file1.txt.split2-- 128~256
file1.txt.split3-- 256~320
file2.txt.split1-- 0~10M
-
FileInputFormat切片大小的参数配置
-
源码中计算切片大小的公式 Math.max(minSize, Math.min(maxSize, blockSize));
mapreduce.input.fileinputformat.split.minsize=1 默认值为1
mapreduce.input.fileinputformat.split.maxsize= Long.MAXValue 默认值Long.MAXValue
因此,默认情况下,切片大小=blocksize。
-
切片大小设置 maxsize(切片最大值):参数如果调得比blockSize小,则会让切片变小,而且就等于配置的这个参数的值。 minsize(切片最小值):参数调的比blockSize大,则可以让切片变得比blockSize还大。 -
获取切片信息API
String name = inputSplit.getPath().getName();
FileSplit inputSplit = (FileSplit) context.getInputSplit();
3.1.4 TextInputFormat
-
FileInputFormat 实现类 思考:在运行 MapReduce 程序时,输入的文件格式包括:基于行的日志文件、二进制格式文件、数据库表等。那么,针对不同的数据类型,MapReduce 是如何读取这些数据的呢? FileInputFormat 常见的接口实现类包括:TextInputFormat、KeyValueTextInputFormat、NLineInputFormat、CombineTextInputFormat 和自定义 InputFormat 等。 -
TextInputFormat TextInputFormat 是默认的 FileInputFormat 实现类。按行读取每条记录。键是存储该行在整个文件中的起始字节偏移量, LongWritable 类型。值是这行的内容,不包括任何行终止符(换行符和回车符),Text 类型。 以下是一个示例,比如,一个分片包含了如下 4 条文本记录。 Rich learning form
Intelligent learning engine
Learning more convenient
From the real demand for more close to the enterprise
每条记录表示为以下键/值对: (0,Rich learning form)
(20,Intelligent learning engine)
(49,Learning more convenient)
(74,From the real demand for more close to the enterprise)
3.1.5 CombineTextInputFormat 切片机制
框架默认的 TextInputFormat 切片机制是对任务按文件规划切片,不管文件多小,都会是一个单独的切片,都会交给一个 MapTask,这样如果有大量小文件,就会产生大量的MapTask,处理效率极其低下。
框架默认的 TextInputFormat 切片机制是对任务按文件规划切片,不管文件多小,都会是一个单独的切片,都会交给一个 MapTask,这样如果有大量小文件,就会产生大量的MapTask,处理效率极其低下。
-
应用场景: CombineTextInputFormat 用于小文件过多的场景,它可以将多个小文件从逻辑上规划到一个切片中,这样,多个小文件就可以交给一个 MapTask 处理。 -
虚拟存储切片最大值设置 CombineTextInputFormat.setMaxInputSplitSize(job, 4194304);// 4m 注意:虚拟存储切片最大值设置最好根据实际的小文件大小情况来设置具体的值。 -
切片机制 生成切片过程包括:虚拟存储过程和切片过程二部分。 
- 虚拟存储过程:
将输入目录下所有文件大小,依次和设置的 setMaxInputSplitSize 值比较,如果不大于设置的最大值,逻辑上划分一个块。如果输入文件大于设置的最大值且大于两倍,那么以最大值切割一块;当剩余数据大小超过设置的最大值且不大于最大值 2 倍,此时将文件均分成 2 个虚拟存储块(防止出现太小切片)。 例如 setMaxInputSplitSize 值为 4M,输入文件大小为 8.02M,则先逻辑上分成一个4M。剩余的大小为 4.02M,如果按照 4M 逻辑划分,就会出现 0.02M 的小的虚拟存储文件,所以将剩余的 4.02M 文件切分成(2.01M 和 2.01M)两个文件。 - 切片过程:
(a)判断虚拟存储的文件大小是否大于 setMaxInputSplitSize 值,大于等于则单独形成一个切片。 (b)如果不大于则跟下一个虚拟存储文件进行合并,共同形成一个切片。 (c)测试举例:有 4 个小文件大小分别为 1.7M、5.1M、3.4M 以及 6.8M 这四个小文件,则虚拟存储之后形成 6 个文件块,大小分别为:1.7M,(2.55M、2.55M),3.4M 以及(3.4M、3.4M) 最终会形成 3 个切片,大小分别为: (1.7+2.55)M,(2.55+3.4)M,(3.4+3.4)M
3.1.6 CombineTextInputFormat
-
需求 将输入的大量小文件合并成一个切片统一处理。
- 输入数据
准备 4 个小文件 a.txt b.txt c.txt d.txt - 期望
期望一个切片处理 4 个文件 -
实现过程
-
不做任何处理,运行 1.8 节的 WordCount 案例程序,观察切片个数为 4。 number of splits:4
-
在 WordcountDriver 中增加如下代码,运行程序,并观察运行的切片个数为 3。 (a)驱动类中添加代码如下:
job.setInputFormatClass(CombineTextInputFormat.class);
CombineTextInputFormat.setMaxInputSplitSize(job, 4194304);
(b)运行如果为 3 个切片。 number of splits:3
-
在 WordcountDriver 中增加如下代码,运行程序,并观察运行的切片个数为 1。 (a) 驱动中添加代码如下:
job.setInputFormatClass(CombineTextInputFormat.class);
CombineTextInputFormat.setMaxInputSplitSize(job, 20971520);
(b)运行如果为 1 个切片 number of splits:1
3.2 MapReduce 工作流程
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ER9aQcSo-1627014737686)(img/1616138570673.png)]](https://img-blog.csdnimg.cn/7736534c20fb464d92f282f4ab4a40a7.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3pqZjE2NjUxMTk4MDM=,size_16,color_FFFFFF,t_70) 
上面的流程是整个 MapReduce 最全工作流程,但是 Shuffle 过程只是从第 7 步开始到第16 步结束,具体 Shuffle 过程详解,如下: (1)MapTask 收集我们的 map()方法输出的 kv 对,放到内存缓冲区中 (2)从内存缓冲区不断溢出本地磁盘文件,可能会溢出多个文件 (3)多个溢出文件会被合并成大的溢出文件 (4)在溢出过程及合并的过程中,都要调用 Partitioner 进行分区和针对 key 进行排序 (5)ReduceTask 根据自己的分区号,去各个 MapTask 机器上取相应的结果分区数据 (6)ReduceTask 会抓取到同一个分区的来自不同 MapTask 的结果文件,ReduceTask 会将这些文件再进行合并(归并排序) (7)合并成大文件后,Shuffle 的过程也就结束了,后面进入 ReduceTask 的逻辑运算过程(从文件中取出一个一个的键值对 Group,调用用户自定义的 reduce()方法)
注意: : (1)Shuffle 中的缓冲区大小会影响到 MapReduce 程序的执行效率,原则上说,缓冲区越大,磁盘 io 的次数越少,执行速度就越快。 (2)缓冲区的大小可以通过参数调整,参数:mapreduce.task.io.sort.mb 默认 100M。
3.3 Shuffle 机制
3.3.1 Shuffle 机制
Map 方法之后,Reduce 方法之前的数据处理过程称之为 Shuffle。 
3.3.2 Partition 分区
-
问题引出 要求将统计结果按照条件输出到不同文件中(分区)。比如:将统计结果按照手机归属地不同省份输出到不同文件中(分区) -
默认Partitioner 分区 public class HashPartitioner<K, V> extends Partitioner<K, V> {
public int getPartition(K key, V value, int numReduceTasks) {
return (key.hashCode() & Integer.MAX_VALUE) % numReduceTasks;
}
}
默认分区是根据key的hashCode对ReduceTasks个数取模得到的。用户没法控制哪个key存储到哪个分区。 -
自定义Partitioner步骤
-
自定义类继承Partitioner,重写getPartition()方法 public class CustomPartitioner extends Partitioner<Text, FlowBean> {
@Override
public int getPartition(Text key, FlowBean value, int numPartitions) {
… …
return partition;
}
}
-
在Job驱动中,设置自定义Partitioner job.setPartitionerClass(CustomPartitioner.class);
-
自定义Partition后,要根据自定义Partitioner的逻辑设置相应数量的ReduceTask job.setNumReduceTasks(5);
-
分区总结
- 如果ReduceTask的数量> getPartition的结果数,则会多产生几个空的输出文件part-r-000xx;
- 如果1<ReduceTask的数量<getPartition的结果数,则有一部分分区数据无处安放,会Exception;
- 如果ReduceTask的数量=1,则不管MapTask端输出多少个分区文件,最终结果都交给这一个ReduceTask,最终也就只会产生一个结果文件 part-r-00000;
- 分区号必须从零开始,逐一累加。
-
案例分析 例如:假设自定义分区数为5,则
- job.setNumReduceTasks(1); 会正常运行,只不过会产生一个输出文件
- job.setNumReduceTasks(2); 会报错
- job.setNumReduceTasks(6);大于5,程序会正常运行,会产生空文件
-
增加一个分区类 public class ProvincePartitioner extends Partitioner<Text, com.atguigu.mapreduce.partitioner.FlowBean>
{
@Override
public int getPartition(Text text, com.atguigu.mapreduce.partitioner.FlowBean flowBean, int numPartitions)
{
String phone = text.toString();
String prePhone = phone.substring(0, 3);
int partition;
if ("136".equals(prePhone))
{
partition = 0;
}
else if ("137".equals(prePhone))
{
partition = 1;
}
else if ("138".equals(prePhone))
{
partition = 2;
}
else if ("139".equals(prePhone))
{
partition = 3;
}
else
{
partition = 4;
}
return partition;
}
}
-
在驱动函数中增加自定义数据分区设置和 ReduceTask 设置
job.setPartitionerClass(ProvincePartitioner.class);
job.setNumReduceTasks(5);
3.3.4 WritableComparable 排序
-
排序概述 排序是MapReduce框架中最重要的操作之一。 MapTask和ReduceTask均会对数据按照key进行排序。该操作属于Hadoop的默认行为。任何应用程序中的数据均会被排序,而不管逻辑上是否需要。 默认排序是按照字典顺序排序,且实现该排序的方法是快速排序。
- 对于MapTask,它会将处理的结果暂时放到环形缓冲区中,当环形缓冲区使用率达到一定阈值后,再对缓冲区中的数据进行一次快速排序,并将这些有序数据溢写到磁盘上,而当数据处理完毕后,它会对磁盘上所有文件进行归并排序。
- 对于ReduceTask,它从每个MapTask上远程拷贝相应的数据文件,如果文件大小超过一定阈值,则溢写磁盘上,否则存储在内存中。如果磁盘上文件数目达到一定阈值,则进行一次归并排序以生成一个更大文件;如果内存中文件大小或者数目超过一定阈值,则进行一次合并后将数据溢写到磁盘上。当所有数据拷贝完毕后,ReduceTask统一对内存和磁盘上的所有数据进行一次归并排序。
-
排序分类
- 部分排序
MapReduce根据输入记录的键对数据集排序。保证输出的每个文件内部有序。 - 全排序
最终输出结果只有一个文件,且文件内部有序。实现方式是只设置一个ReduceTask。但该方法在处理大型文件时效率极低,因为一台机器处理所有文件,完全丧失了MapReduce所提供的并行架构。 - 辅助排序:(GroupingComparator分组)
在Reduce端对key进行分组。应用于:在接收的key为bean对象时,想让一个或几个字段相同(全部字段比较不相同)的key进入到同一个reduce方法时,可以采用分组排序。 - 二次排序
在自定义排序过程中,如果compareTo中的判断条件为两个即为二次排序。
3.3.5 WritableComparable 排序案例实操 (全排序)
-
需求分析  -
代码实现
-
FlowBean 对象在在需求 1 基础上增加了比较功能 public class FlowBean implements WritableComparable<FlowBean>
{
private long upFlow;
private long downFlow;
private long sumFlow;
public FlowBean()
{
}
public long getUpFlow()
{
return upFlow;
}
public void setUpFlow(long upFlow)
{
this.upFlow = upFlow;
}
public long getDownFlow()
{
return downFlow;
}
public void setDownFlow(long downFlow)
{
this.downFlow = downFlow;
}
public long getSumFlow()
{
return sumFlow;
}
public void setSumFlow(long sumFlow)
{
this.sumFlow = sumFlow;
}
public void setSumFlow()
{
this.sumFlow = this.upFlow + this.downFlow;
}
@Override
public void write(DataOutput out) throws IOException
{
out.writeLong(this.upFlow);
out.writeLong(this.downFlow);
out.writeLong(this.sumFlow);
}
@Override
public void readFields(DataInput in) throws IOException
{
this.upFlow = in.readLong();
this.downFlow = in.readLong();
this.sumFlow = in.readLong();
}
@Override
public String toString()
{
return upFlow + "\t" + downFlow + "\t" + sumFlow;
}
@Override
public int compareTo(FlowBean o)
{
if (this.sumFlow > o.sumFlow)
{
return -1;
}
else if (this.sumFlow < o.sumFlow)
{
return 1;
}
else
{
return 0;
}
}
}
-
编写 Mapper 类 public class FlowMapper extends Mapper<LongWritable, Text, FlowBean, Text>
{
private FlowBean outK = new FlowBean();
private Text outV = new Text();
@Override
protected void map(LongWritable key, Text value, Context context)
throws IOException, InterruptedException
{
String line = value.toString();
String[] split = line.split("\t");
outK.setUpFlow(Long.parseLong(split[1]));
outK.setDownFlow(Long.parseLong(split[2]));
outK.setSumFlow();
outV.set(split[0]);
context.write(outK, outV);
}
}
-
编写 Reducer 类 public class FlowReducer extends Reducer<FlowBean, Text, Text, FlowBean>
{
@Override
protected void reduce(FlowBean key, Iterable<Text> values, Context
context) throws IOException, InterruptedException
{
for (Text value : values)
{
context.write(value, key);
}
}
}
-
编写 Driver 类 public class FlowDriver
{
public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException
{
Configuration conf = new Configuration();
Job job = Job.getInstance(conf);
job.setJarByClass(FlowDriver.class);
job.setMapperClass(FlowMapper.class);
job.setReducerClass(FlowReducer.class);
job.setMapOutputKeyClass(FlowBean.class);
job.setMapOutputValueClass(Text.class);
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(FlowBean.class);
FileInputFormat.setInputPaths(job, new Path("D:\\inputflow2"));
FileOutputFormat.setOutputPath(job, new Path("D:\\comparout"));
boolean b = job.waitForCompletion(true);
System.exit(b ? 0 : 1);
}
}
3.3.6 WritableComparable 排序案例实操 (区内排序)
-
需求 要求每个省份手机号输出的文件中按照总流量内部排序。 -
需求分析 基于前一个需求,增加自定义分区类,分区按照省份手机号设置。 -
分区内排序案例分析  -
案例
-
增加自定义分区类 public class ProvincePartitioner2 extends Partitioner<FlowBean, Text>
{
@Override
public int getPartition(FlowBean flowBean, Text text, int numPartitions)
{
String phone = text.toString();
String prePhone = phone.substring(0, 3);
int partition;
if ("136".equals(prePhone))
{
partition = 0;
}
else if ("137".equals(prePhone))
{
partition = 1;
}
else if ("138".equals(prePhone))
{
partition = 2;
}
else if ("139".equals(prePhone))
{
partition = 3;
}
else
{
partition = 4;
}
return partition;
}
}
-
在驱动类中添加分区类
job.setPartitionerClass(ProvincePartitioner2.class);
job.setNumReduceTasks(5);
3.3.7 Combiner 合并
-
Combiner是MR程序中Mapper和Reducer之外的一种组件。 -
Combiner组件的父类就是Reducer。 -
Combiner和Reducer的区别在于运行的位置 Combiner是在每一个MapTask所在的节点运行; -
Combiner的意义就是对每一个MapTask的输出进行局部汇总,以减小网络传输量。 -
Combiner能够应用的前提是不能影响最终的业务逻辑,而且,Combiner的输出kv应该跟Reducer的输入kv类型要对应起来。 Mapper
3 5 7 ->(3+5+7)/3=5
2 6 ->(2+6)/2=4
Reducer
(3+5+7+2+6)/5=23/5 不等于 (5+4)/2=9/2
-
自定义 Combiner 实现步骤 (1)自定义一个 Combiner 继承 Reducer,重写 Reduce 方法 public class WordCountCombiner extends Reducer<Text, IntWritable, Text, IntWritable> {
private IntWritable outV = new IntWritable();
@Override
protected void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {
int sum = 0;
for (IntWritable value : values) {
sum += value.get();
}
outV.set(sum);
context.write(key,outV);
}
}
(2)在 Job 驱动类中设置: job.setCombinerClass(WordCountCombiner.class);
3.3.8 Combiner 合并案例实操
-
需求 统计过程中对每一个 MapTask 的输出进行局部汇总,以减小网络传输量即采用Combiner 功能。
- 数据输入
hello.txt - 期望输出数据
期望:Combine 输入数据多,输出时经过合并,输出数据降低。 -
需求分析  -
案例实操方案一
public class WordCountCombiner extends Reducer<Text, IntWritable, Text, IntWritable>
{
private IntWritable outV = new IntWritable();
@Override
protected void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException
{
int sum = 0;
for (IntWritable value : values)
{
sum += value.get();
}
outV.set(sum);
context.write(key, outV);
}
}
job.setCombinerClass(WordCountCombiner.class);
-
将 WordcountReducer 作为 Combiner 在 WordcountDriver 驱动类中指定
job.setCombinerClass(WordCountReducer.class);
3.4 OutputFormat 数据输出 3.4.1 OutputFormat 接口 OutputFormat接口实现类 OutputFormat是MapReduce输出的基类,所有实现MapReduce输出都实现了OutputFormat接口。下面我们介绍几种常见的OutputFormat实现类。
-
OutputFormat实现类  -
默认输出格式TextOutputFormat -
自定义OutputFormat
- 应用场景:
例如:输出数据到MySQL/HBase/Elasticsearch等存储框架中。 - 自定义OutputFormat步骤
? 自定义一个类继承FileOutputFormat。 ? 改写RecordWriter,具体改写输出数据的方法write()。
3.4.2 自定义OutputFormat案例实操
-
需求 过滤输入的 log 日志,包含 atguigu 的网站输出到 e:/atguigu.log,不包含 atguigu 的网站输出到 e:/other.log。 -
期望输出数据 (1)输入数据 log.txt (2)期望输出数据 atguigu.log other.log -
需求分析  -
代码
-
编写 LogMapper 类 public class LogMapper extends Mapper<LongWritable, Text, Text, NullWritable>
{
@Override
protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException
{
context.write(value, NullWritable.get());
}
}
-
编写 LogReducer 类 public class LogReducer extends Reducer<Text, NullWritable, Text, NullWritable>
{
@Override
protected void reduce(Text key, Iterable<NullWritable> values, Context context) throws IOException, InterruptedException
{
for (NullWritable value : values)
{
context.write(key, NullWritable.get());
}
}
}
-
自定义一个 LogOutputFormat 类 public class LogOutputFormat extends FileOutputFormat<Text, NullWritable>
{
@Override
public RecordWriter<Text, NullWritable> getRecordWriter(TaskAttemptContext job) throws IOException,
InterruptedException
{
LogRecordWriter logRecordWriter = new LogRecordWriter(job);
return logRecordWriter;
}
}
-
编写 LogRecordWriter 类 public class LogRecordWriter extends RecordWriter<Text, NullWritable>
{
private FSDataOutputStream atguiguOut;
private FSDataOutputStream otherOut;
public LogRecordWriter(TaskAttemptContext job)
{
try
{
FileSystem fs = FileSystem.get(job.getConfiguration());
atguiguOut = fs.create(new Path("d:/hadoop/atguigu.log"));
otherOut = fs.create(new Path("d:/hadoop/other.log"));
}
catch (IOException e)
{
e.printStackTrace();
}
}
@Override
public void write(Text key, NullWritable value) throws IOException, InterruptedException
{
String log = key.toString();
if (log.contains("atguigu"))
{
atguiguOut.writeBytes(log + "\n");
}
else
{
otherOut.writeBytes(log + "\n");
}
}
@Override
public void close(TaskAttemptContext context) throws IOException, InterruptedException
{
IOUtils.closeStream(atguiguOut);
IOUtils.closeStream(otherOut);
}
}
-
编写 LogDriver 类 public class LogDriver
{
public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException
{
Configuration conf = new Configuration();
Job job = Job.getInstance(conf);
job.setJarByClass(LogDriver.class);
job.setMapperClass(LogMapper.class);
job.setReducerClass(LogReducer.class);
job.setMapOutputKeyClass(Text.class);
job.setMapOutputValueClass(NullWritable.class);
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(NullWritable.class);
job.setOutputFormatClass(LogOutputFormat.class);
FileInputFormat.setInputPaths(job, new Path("D:\\input"));
FileOutputFormat.setOutputPath(job, new Path("D:\\logoutput"));
boolean b = job.waitForCompletion(true);
System.exit(b ? 0 : 1);
}
}
3.5 MapReduce 内核源码解析
3.5.1 MapTask 工作

-
Read 阶段:MapTask 通过 InputFormat 获得的 RecordReader,从输入 InputSplit 中解析出一个个 key/value。 -
Map 阶段:该节点主要是将解析出的 key/value 交给用户编写 map() 函数处理,并产生一系列新的 key/value。 -
Collect 收集阶段:在用户编写 map() 函数中,当数据处理完成后,一般会调用OutputCollector.collect()输出结果。在该函数内部,它会将生成的 key/value 分区(调用Partitioner),并写入一个环形内存缓冲区中。 -
Spill 阶段:即“溢写”,当环形缓冲区满后,MapReduce 会将数据写到本地磁盘上,生成一个临时文件。需要注意的是,将数据写入本地磁盘之前,先要对数据进行一次本地排序,并在必要时对数据进行合并、压缩等操作。 溢写阶段详情: 步骤 1:利用快速排序算法对缓存区内的数据进行排序,排序方式是,先按照分区编号Partition 进行排序,然后按照 key 进行排序。这样,经过排序后,数据以分区为单位聚集在一起,且同一分区内所有数据按照 key 有序。 步骤 2:按照分区编号由小到大依次将每个分区中的数据写入任务工作目录下的临时文件 output/spillN.out(N 表示当前溢写次数)中。如果用户设置了 Combiner,则写入文件之前,对每个分区中的数据进行一次聚集操作。 步骤 3:将分区数据的元信息写到内存索引数据结构 SpillRecord 中,其中每个分区的元信息包括在临时文件中的偏移量、压缩前数据大小和压缩后数据大小。如果当前内存索引大小超过 1MB,则将内存索引写到文件output/spillN.out.index 中。 -
Merge 阶段:当所有数据处理完成后,MapTask 对所有临时文件进行一次合并,以确保最终只会生成一个数据文件。 当所有数据处理完后,MapTask 会将所有临时文件合并成一个大文件,并保存到文件output/file.out 中,同时生成相应的索引文件 output/file.out.index。 在进行文件合并过程中,MapTask 以分区为单位进行合并。对于某个分区,它将采用多轮递归合并的方式。每轮合并 mapreduce.task.io.sort.factor(默认 10)个文件,并将产生的文件重新加入待合并列表中,对文件排序后,重复以上过程,直到最终得到一个大文件。 让每个 MapTask 最终只生成一个数据文件,可避免同时打开大量文件和同时读取大量小文件产生的随机读取带来的开销。
3.5.2 ReduceTask

- Copy 阶段:ReduceTask 从各个 MapTask 上远程拷贝一片数据,并针对某一片数据,如果其大小超过一定阈值,则写到磁盘上,否则直接放到内存中。
- Sort 阶段:在远程拷贝数据的同时,ReduceTask 启动了两个后台线程对内存和磁盘上的文件进行合并,以防止内存使用过多或磁盘上文件过多。按照 MapReduce 语义,用户编写 reduce()函数输入数据是按 key 进行聚集的一组数据。为了将 key 相同的数据聚在一起,Hadoop 采用了基于排序的策略。由于各个 MapTask 已经实现对自己的处理结果进行了局部排序,因此,ReduceTask 只需对所有数据进行一次归并排序即可。
- Reduce 阶段:reduce()函数将计算结果写到 HDFS 上。
3.5.3 ReduceTask 并行度决定机制
回顾:MapTask 并行度由切片个数决定,切片个数由输入文件和切片规则决定。 思考:ReduceTask 并行度由谁决定?
-
设置 ReduceTask 并行度(个数) ReduceTask 的并行度同样影响整个 Job 的执行并发度和执行效率,但与 MapTask 的并发数由切片数决定不同,ReduceTask 数量的决定是可以直接手动设置:
job.setNumReduceTasks(4);
-
实验:测试 ReduceTask 多少 合适 (1)实验环境:1 个 Master 节点,16 个 Slave 节点:CPU:8GHZ,内存: 2G (2)实验结论:  -
注意事项
- ReduceTask=0,表示没有Reduce阶段,输出文件个数和Map个数一致。
- ReduceTask默认值就是1,所以输出文件个数为一个。
- 如果数据分布不均匀,就有可能在Reduce阶段产生数据倾斜
- ReduceTask数量并不是任意设置,还要考虑业务逻辑需求,有些情况下,需要计算全局汇总结果,就只能有1个ReduceTask。
- 具体多少个ReduceTask,需要根据集群性能而定。
- 如果分区数不是1,但是ReduceTask为1,是否执行分区过程。答案是:不执行分区过程。因为在MapTask的源码中,执行分区的前提是先判断ReduceNum个数是否大于1。不大于1肯定不执行。
3.5.4 MapTask & ReduceTask 源码解析
-
MapTask源码 context.write(k, NullWritable.get());
output.write(key, value);
collector.collect(key, value,partitioner.getPartition(key, value, partitions));
HashPartitioner();
collect()
close()
collector.flush()
sortAndSpill()
sorter.sort() QuickSort
mergeParts();
collector.close();
-
ReduceTask 源码 解析流程 =================== ReduceTask ===================
if (isMapOrReduce())
initialize()
init(shuffleContext);
totalMaps = job.getNumMapTasks();
merger = createMergeManager(context);
this.inMemoryMerger = createInMemoryMerger();
this.onDiskMerger = new OnDiskMerger(this);
rIter = shuffleConsumerPlugin.run();
eventFetcher.start();
eventFetcher.shutDown();
copyPhase.complete();
taskStatus.setPhase(TaskStatus.Phase.SORT);
sortPhase.complete();
reduce();
cleanup(context);
3.6 Join 应用
3.6.1 Reduce Join
Map 端的主要工作:为来自不同表或文件的 key/value 对,打标签以区别不同来源的记录。然后用连接字段作为 key,其余部分和新加的标志作为 value, 进行输出。 Reduce 端的主要工作:在 Reduce 端以连接字段作为 key 的分组已经完成,我们只需要在每一个分组当中将那些来源于不同文件的记录(在 Map 阶段已经打标志)分开,最后进行合并就 ok 了。
3.6.2 Reduce Join 案例实操
-
需求 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-72kfI37y-1627014737699)(img/1616383268030.png)]  ? ? 表 4-5 商品信息表 t_product
将商品信息表中数据根据商品 pid 合并到订单数据表中。 ![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-qsQQazkr-1627014737700)(img/1616383511661.png)]](https://img-blog.csdnimg.cn/26e10153e04c4eb9af606d89c3e9ccfe.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3pqZjE2NjUxMTk4MDM=,size_16,color_FFFFFF,t_70) -
需求分析 通过将关联条件作为 Map 输出的 key,将两表满足 Join 条件的数据并携带数据所来源的文件信息,发往同一个 ReduceTask,在 Reduce 中进行数据的串联。 ![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-eTd7dxfe-1627014737700)(img/1616383633406.png)]](https://img-blog.csdnimg.cn/1fe68c64ca094200af42c8cc776f3f91.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3pqZjE2NjUxMTk4MDM=,size_16,color_FFFFFF,t_70) -
代码实现
-
创建商品和订单合并后的 TableBean 类 public class TableBean implements Writable
{
private String id;
private String pid;
private int amount;
private String pname;
private String flag;
public TableBean()
{
}
public String getId()
{
return id;
}
public void setId(String id)
{
this.id = id;
}
public String getPid()
{
return pid;
}
public void setPid(String pid)
{
this.pid = pid;
}
public int getAmount()
{
return amount;
}
public void setAmount(int amount)
{
this.amount = amount;
}
public String getPname()
{
return pname;
}
public void setPname(String pname)
{
this.pname = pname;
}
public String getFlag()
{
return flag;
}
public void setFlag(String flag)
{
this.flag = flag;
}
@Override
public String toString()
{
return id + "\t" + pname + "\t" + amount;
}
@Override
public void write(DataOutput out) throws IOException
{
out.writeUTF(id);
out.writeUTF(pid);
out.writeInt(amount);
out.writeUTF(pname);
out.writeUTF(flag);
}
@Override
public void readFields(DataInput in) throws IOException
{
this.id = in.readUTF();
this.pid = in.readUTF();
this.amount = in.readInt();
this.pname = in.readUTF();
this.flag = in.readUTF();
}
}
-
编写 TableMapper 类 {
private String filename;
private Text outK = new Text();
private TableBean outV = new TableBean();
@Override
protected void setup(Context context) throws IOException, InterruptedException
{
InputSplit split = context.getInputSplit();
FileSplit fileSplit = (FileSplit) split;
filename = fileSplit.getPath().getName();
}
@Override
protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException
{
String line = value.toString();
if (filename.contains("order"))
{
String[] split = line.split("\t");
outK.set(split[1]);
outV.setId(split[0]);
outV.setPid(split[1]);
outV.setAmount(Integer.parseInt(split[2]));
outV.setPname("");
outV.setFlag("order");
}
else
{
String[] split = line.split("\t");
outK.set(split[0]);
outV.setId("");
outV.setPid(split[0]);
outV.setAmount(0);
outV.setPname(split[1]);
outV.setFlag("pd");
}
context.write(outK, outV);
}
}
-
编写 TableReducer 类 public class TableReducer extends Reducer<Text, TableBean, TableBean, NullWritable>
{
@Override
protected void reduce(Text key, Iterable<TableBean> values, Context context) throws IOException, InterruptedException
{
ArrayList<TableBean> orderBeans = new ArrayList<>();
TableBean pdBean = new TableBean();
for (TableBean value : values)
{
if ("order".equals(value.getFlag()))
{
TableBean tmpOrderBean = new TableBean();
try
{
BeanUtils.copyProperties(tmpOrderBean, value);
}
catch (IllegalAccessException e)
{
e.printStackTrace();
}
catch (InvocationTargetException e)
{
e.printStackTrace();
}
orderBeans.add(tmpOrderBean);
}
else
{
try
{
BeanUtils.copyProperties(pdBean, value);
}
catch (IllegalAccessException e)
{
e.printStackTrace();
}
catch (InvocationTargetException e)
{
e.printStackTrace();
}
}
}
for (TableBean orderBean : orderBeans)
{
orderBean.setPname(pdBean.getPname());
context.write(orderBean, NullWritable.get());
}
}
}
-
编写 TableDriver 类 public class TableDriver
{
public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException
{
Job job = Job.getInstance(new Configuration());
job.setJarByClass(TableDriver.class);
job.setMapperClass(TableMapper.class);
job.setReducerClass(TableReducer.class);
job.setMapOutputKeyClass(Text.class);
job.setMapOutputValueClass(TableBean.class);
job.setOutputKeyClass(TableBean.class);
job.setOutputValueClass(NullWritable.class);
FileInputFormat.setInputPaths(job, new Path("D:\\input"));
FileOutputFormat.setOutputPath(job, new Path("D:\\output"));
boolean b = job.waitForCompletion(true);
System.exit(b ? 0 : 1);
}
}
3.6.3 Map Join
-
使用场景 Map Join 适用于一张表十分小、一张表很大的场景。 -
优点 思考:在 Reduce 端处理过多的表,非常容易产生数据倾斜。怎么办? 在 Map 端缓存多张表,提前处理业务逻辑,这样增加 Map 端业务,减少 Reduce 端数据的压力,尽可能的减少数据倾斜。 -
具体办法:采用 DistributedCache (1)在 Mapper 的 setup 阶段,将文件读取到缓存集合中。 (2)在 Driver 驱动类中加载缓存。
job.addCacheFile(new URI("file:///e:/cache/pd.txt"));
job.addCacheFile(new URI("hdfs://hadoop102:8020/cache/pd.txt"));
3.6.4 Map Join案例实操
-
需求 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-xhsW0JMt-1627014737701)(img/1616399977022.png)] -
需求分析 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-0FFhsKfo-1627014737701)(img/1616399956956.png)] -
代码实现
-
先在 MapJoinDriver 驱动类中添加缓存文件 public class MapJoinDriver
{
public static void main(String[] args) throws IOException, URISyntaxException, ClassNotFoundException, InterruptedException
{
Configuration conf = new Configuration();
Job job = Job.getInstance(conf);
job.setJarByClass(MapJoinDriver.class);
job.setMapperClass(MapJoinMapper.class);
job.setMapOutputKeyClass(Text.class);
job.setMapOutputValueClass(NullWritable.class);
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(NullWritable.class);
job.addCacheFile(new URI("file:///D:/input/tablecache/pd.txt"));
job.setNumReduceTasks(0);
FileInputFormat.setInputPaths(job, new Path("D:\\input"));
FileOutputFormat.setOutputPath(job, new Path("D:\\output"));
boolean b = job.waitForCompletion(true);
System.exit(b ? 0 : 1);
}
}
-
在 MapJoinMapper 类中的 setup 方法中读取缓存文件 public class MapJoinMapper extends Mapper<LongWritable, Text, Text, NullWritable>
{
private Map<String, String> pdMap = new HashMap<>();
private Text text = new Text();
@Override
protected void setup(Context context) throws IOException, InterruptedException
{
URI[] cacheFiles = context.getCacheFiles();
Path path = new Path(cacheFiles[0]);
FileSystem fs = FileSystem.get(context.getConfiguration());
FSDataInputStream fis = fs.open(path);
BufferedReader reader = new BufferedReader(new InputStreamReader(fis, "UTF-8"));
String line;
while (StringUtils.isNotEmpty(line = reader.readLine()))
{
String[] split = line.split("\t");
pdMap.put(split[0], split[1]);
}
IOUtils.closeStream(reader);
}
@Override
protected void map(LongWritable key, Text value, Context context)
throws IOException, InterruptedException
{
String[] fields = value.toString().split("\t");
String pname = pdMap.get(fields[1]);
text.set(fields[0] + "\t" + pname + "\t" + fields[2]);
context.write(text, NullWritable.get());
}
}
3.7 数据清洗(ETL )
“ETL,是英文 Extract-Transform-Load 的缩写,用来描述将数据从来源端经过抽取(Extract)、转换(Transform)、加载(Load)至目的端的过程。ETL 一词较常用在数据仓库,但其对象并不限于数据仓库。
在运行核心业务 MapReduce 程序之前,往往要先对数据进行清洗,清理掉不符合用户要求的数据。清理的过程往往只需要运行 Mapper 程序,不需要运行 Reduce 程序。
-
需求 去除日志中字段个数小于等于 11 的日志。 (1)输入数据 ? web.log (2)期望输出数据 每行字段长度都大于 11。 -
需求分析 需要在 Map 阶段对输入的数据根据规则进行过滤清洗。 -
实现代码
public class WebLogMapper extends Mapper<LongWritable, Text, Text, NullWritable>
{
@Override
protected void map(LongWritable key, Text value, Context context)
throws IOException, InterruptedException
{
String line = value.toString();
boolean result = parseLog(line, context);
if (!result)
{
return;
}
context.write(value, NullWritable.get());
}
private boolean parseLog(String line, Context context)
{
String[] fields = line.split(" ");
if (fields.length > 11)
{
return true;
}
else
{
return false;
}
}
}
-
编写 WebLogDriver 类 public class WebLogDriver
{
public static void main(String[] args) throws Exception
{
args = new String[] {"D:/input/inputlog", "D:/output1"};
Configuration conf = new Configuration();
Job job = Job.getInstance(conf);
job.setJarByClass(LogDriver.class);
job.setMapperClass(WebLogMapper.class);
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(NullWritable.class);
job.setNumReduceTasks(0);
FileInputFormat.setInputPaths(job, new Path(args[0]));
FileOutputFormat.setOutputPath(job, new Path(args[1]));
boolean b = job.waitForCompletion(true);
System.exit(b ? 0 : 1);
}
}
3.8 MapReduce 开发总结
- 输入数据接口:InputFormat
- 默认使用的实现类是:TextInputFormat
- TextInputFormat 的功能逻辑是:一次读一行文本,然后将该行的起始偏移量作为key,行内容作为 value 返回。
- CombineTextInputFormat 可以把多个小文件合并成一个切片处理,提高处理效率。
- 逻辑处理接口:Mapper
用户根据业务需求实现其中三个方法:map() setup() cleanup () - Partitioner 分区
- 有默认实现 HashPartitioner,逻辑是根据 key 的哈希值和 numReduces 来返回一个分区号;key.hashCode()&Integer.MAXVALUE % numReduces
- 如果业务上有特别的需求,可以自定义分区。
- Comparable 排序
- 当我们用自定义的对象作为 key 来输出时,就必须要实现 WritableComparable 接口,重写其中的 compareTo()方法。
- 部分排序:对最终输出的每一个文件进行内部排序。
- 全排序:对所有数据进行排序,通常只有一个 Reduce。
- 二次排序:排序的条件有两个。
- Combiner 合并
Combiner 合并可以提高程序执行效率,减少 IO 传输。但是使用时必须不能影响原有的业务处理结果。 - 逻辑处理接口:Reducer
用户根据业务需求实现其中三个方法:reduce() setup() cleanup () - 输出数据接口:OutputFormat
- 默认实现类是 TextOutputFormat,功能逻辑是:将每一个 KV 对,向目标文本文件输出一行。
- 用户还可以自定义 OutputFormat。
第 4 章 Hadoop 数据压缩
4.1 概述
- 压缩的好处和坏处
压缩的优点:以减少磁盘 IO、减少磁盘存储空间。 压缩的缺点:增加 CPU 开销。 - 压缩原则
- 运算密集型的 Job,少用压缩
- IO 密集型的 Job,多用压缩
第 5 章 常见错误及解决方案
-
导包容易出错。尤其 Text 和 CombineTextInputFormat。 -
Mapper 中第一个输入的参数必须是 LongWritable 或者 NullWritable,不可以是 IntWritable.报的错误是类型转换异常。 -
java.lang.Exception: java.io.IOException: Illegal partition for 13926435656 (4),说明 Partition和 ReduceTask 个数没对上,调整 ReduceTask 个数。 -
如果分区数不是 1,但是 reducetask 为 1,是否执行分区过程。答案是:不执行分区过程。因为在 MapTask 的源码中,执行分区的前提是先判断 ReduceNum 个数是否大于 1。不大于1 肯定不执行。 -
hadoop jar wc.jar com.atguigu.mapreduce.wordcount.WordCountDriver /user/atguigu//user/atguigu/output 报如下错误: Exception in thread “main” java.lang.UnsupportedClassVersionError: com/atguigu/mapreduce/wordcount/WordCountDriver : Unsupported major.minor version 52.0 原因是 Windows 环境用的 jdk1.7,Linux 环境用的 jdk1.8。 解决方案:统一 jdk 版本。 -
缓存 pd.txt 小文件案例中,报找不到 pd.txt 文件 原因:大部分为路径书写错误。还有就是要检查 pd.txt.txt 的问题。还有个别电脑写相对路径找不到 pd.txt,可以修改为绝对路径。 -
报类型转换异常。 通常都是在驱动函数中设置 Map 输出和最终输出时编写错误。 Map 输出的 key 如果没有排序,也会报类型转换异常。 -
集群中运行 wc.jar 时出现了无法获得输入文件。 原因:WordCount 案例的输入文件不能放用 HDFS 集群的根目录。 -
出现了如下相关异常 -
输入数据接口:InputFormat
- 默认使用的实现类是:TextInputFormat
- TextInputFormat 的功能逻辑是:一次读一行文本,然后将该行的起始偏移量作为key,行内容作为 value 返回。
- CombineTextInputFormat 可以把多个小文件合并成一个切片处理,提高处理效率。
-
逻辑处理接口:Mapper 用户根据业务需求实现其中三个方法:map() setup() cleanup () -
Partitioner 分区
- 有默认实现 HashPartitioner,逻辑是根据 key 的哈希值和 numReduces 来返回一个分区号;key.hashCode()&Integer.MAXVALUE % numReduces
- 如果业务上有特别的需求,可以自定义分区。
-
Comparable 排序
- 当我们用自定义的对象作为 key 来输出时,就必须要实现 WritableComparable 接口,重写其中的 compareTo()方法。
- 部分排序:对最终输出的每一个文件进行内部排序。
- 全排序:对所有数据进行排序,通常只有一个 Reduce。
- 二次排序:排序的条件有两个。
-
Combiner 合并 Combiner 合并可以提高程序执行效率,减少 IO 传输。但是使用时必须不能影响原有的业务处理结果。 -
逻辑处理接口:Reducer 用户根据业务需求实现其中三个方法:reduce() setup() cleanup () -
输出数据接口:OutputFormat
- 默认实现类是 TextOutputFormat,功能逻辑是:将每一个 KV 对,向目标文本文件输出一行。
- 用户还可以自定义 OutputFormat。
第 4 章 Hadoop 数据压缩
4.1 概述
- 压缩的好处和坏处
压缩的优点:以减少磁盘 IO、减少磁盘存储空间。 压缩的缺点:增加 CPU 开销。 - 压缩原则
- 运算密集型的 Job,少用压缩
- IO 密集型的 Job,多用压缩
第 5 章 常见错误及解决方案
-
导包容易出错。尤其 Text 和 CombineTextInputFormat。 -
Mapper 中第一个输入的参数必须是 LongWritable 或者 NullWritable,不可以是 IntWritable.报的错误是类型转换异常。 -
java.lang.Exception: java.io.IOException: Illegal partition for 13926435656 (4),说明 Partition和 ReduceTask 个数没对上,调整 ReduceTask 个数。 -
如果分区数不是 1,但是 reducetask 为 1,是否执行分区过程。答案是:不执行分区过程。因为在 MapTask 的源码中,执行分区的前提是先判断 ReduceNum 个数是否大于 1。不大于1 肯定不执行。 -
hadoop jar wc.jar com.atguigu.mapreduce.wordcount.WordCountDriver /user/atguigu//user/atguigu/output 报如下错误: Exception in thread “main” java.lang.UnsupportedClassVersionError: com/atguigu/mapreduce/wordcount/WordCountDriver : Unsupported major.minor version 52.0 原因是 Windows 环境用的 jdk1.7,Linux 环境用的 jdk1.8。 解决方案:统一 jdk 版本。 -
缓存 pd.txt 小文件案例中,报找不到 pd.txt 文件 原因:大部分为路径书写错误。还有就是要检查 pd.txt.txt 的问题。还有个别电脑写相对路径找不到 pd.txt,可以修改为绝对路径。 -
报类型转换异常。 通常都是在驱动函数中设置 Map 输出和最终输出时编写错误。 Map 输出的 key 如果没有排序,也会报类型转换异常。 -
集群中运行 wc.jar 时出现了无法获得输入文件。 原因:WordCount 案例的输入文件不能放用 HDFS 集群的根目录。
材料来源于网络,只做整理补充,如有侵权,联系我删除
|