前言:此文章从客户端提交job任务开始,到对需要处理的数据进行切片,产生对应的maptask任务,Yarn来管理任务的调度来执行maptask和reducetask(包括shuffle)进行了详细的代码分析。
一、hadoop的Job 提交流程源码
流程图:
1.从我们编写的mapreduce的代码中进入job提交源码 支线一:进入connect(); 2.支线二:进入submitter.submitJobInternal(Job.this, cluster),向集群提交了job信息,这里是提交job任务的核心代码
该方法(submitter.submitJobInternal(Job.this, cluster))往下翻:
存入了切片信息的本地路径 submitter.submitJobInternal(Job.this, cluster)方法继续往下走 该方法继续往下看:将job的任务创建的Application的appContext上下文信息发送到Yarn的ResourseManager
进入setupAMCommand,查看封装的各种参数 该方法继续往下翻 回到YARNRunner的submitJob方法 代码已经从客户端提交到了ClientRMService,ClientRMService就是resourceManager端,接下来可以查看Yarn 源码解析
二、hadoop的Job 提交流程切片源码
补充上面Job提交流程中有切片部分,单独拎出来分析 该方法继续往下走 总结重点:切片大小默认是这样computeSplitSize(Math.max(minSize,Math.min(maxSize,blocksize)))=blocksize=128M,公司里也一般是这个,不过可以修改,切块大小不是精准128M切,而是每次切片时,都要判断切完剩下的部分是否大于块的1.1倍,不大于1.1倍就划分一块切片。
三、Yarn 源码解析
1.YARN工作机制 2.YARN源码解析 1.前言:之前job任务提交的代码(途中灰色部分)已经讲解,客户端发送request到了客户端部分 该方法继续往下看 2.resourceManager通过指令命令执行MRAppMaster.java类的main方法 回到initAndStartAppMaster初始化AppMaster方法
3.YarnChild负责MapReduce任务过程
查看main方法 ①查看Maptask的run方法 该方法继续往下看 ②回到上边此图部分,查看Reudcetask的run方法 Yarn的ResourceManager负责开始maptask和reducetask的执行开启,接下来讲解mapreduce的执行源码
四、MapTask源码解析
1.MapTask的工作机制 找到自己编写的mapreducetask的代码,从mapper类中context.write打入断点 回到上一层flush方法 回到之前的close方法
五、ReduceTask源码解析
ReduceTask工作机制 提前在ReduceTask的run方法中打入断点maptask执行完之后就开始执行reducetask 其中初始化了outputFormat对象 回到ReduceTask的run方法 返回上一级方法 回到ReduceTask的run方法 回到ReduceTask的run方法 现在调用到我们编写的reduce方法
|