MapReduce
目标
根据论文所说明的,有MASTER和WORKER两类工作节点,以下实现大都按照论文所说的实现,但是在对MASTER的实现上有所改动:
- MASTER向WORKER发送心跳检测,这里改为了对分配出去的任务进行超时监控。
MASTER:
WORKER:
实现
ProcessStatus
用来表示Master当前的状态,有如下四种:
- 接受完MapReduce文件,处于Maping状态。
- 已经成功处理完Map任务,处于Reducing状态。
- 所有的Map和Reduce任务都已经完成,处于Done状态。
- 当所有的Map(or Reduce)任务都已经分配出去,但是还没有接受到所有的成功反馈,处于Waiting状态。
type MasterStatu int
const (
Maping MasterStatu = 0
Reducing MasterStatu = 1
Done MasterStatu = 2
Waiting MasterStatu = 3
)
RPC定义
提交任务分配请求(GetOneJob)
Request
type GetOneJobRequest struct {
}
Response
-
任务的类型,可以根据MasterStatu来判断,有四种:Map,Reduce,Waite,Done。 -
如果是Map任务: 需要进行Map的文件路径。 Master给当前Worker命名的编号,为了给存储中间键值的文件命名。 后续有多少个Reduce任务,为了给存储分散中间键值的文件命名。 -
如果是Reduce任务: 存储哪些Map任务的Worker成功了,为了寻找Reduce任务的文件。 当前Worker分配的是第几个Reduce任务。
type GetOneJobResponce struct {
JobType MasterStatu
FilePath string
WorkerNumber int
NReduce int
PathList []int
ReduceNumber int
}
提交任务完成记录(JobDone)
Request
type JobDoneRequest struct {
JobType MasterStatu
FilePath string
WorkerNumber int
}
Response
type JobDoneResponse struct {
}
Master
Master的结构体描述,有当前状态、Map任务、Reduce任务等。
type Master struct {
Mu sync.Mutex
Statu MasterStatu
NReduce int
NMapJob int
WorkerNumber int
MapJob map[string]bool
MapJobDone map[string]int
MapJobList []int
ReduceJob map[int]bool
ReduceJobDone map[int]bool
}
GetOneJob
根据Rpc的定义,应该有一个分配任务的函数,这里分配任务也应该是按照Master当前的状态去分配:
func (m *Master) GetOneJob(req *GetOneJobRequest, resp *GetOneJobResponce) error {
m.Mu.Lock()
defer m.Mu.Unlock()
switch m.Statu {
case Maping:
JobType, FilePath, WorkerNumber := m.AssignMapJob()
resp.JobType = JobType
resp.FilePath = FilePath
resp.WorkerNumber = WorkerNumber
resp.NReduce = m.NReduce
case Reducing:
JobType, PathList, ReduceNumber := m.AssignReduceJob()
resp.JobType = JobType
resp.PathList = PathList
resp.ReduceNumber = ReduceNumber
case Done:
resp.JobType = Done
}
return nil
}
-
AssignMapJob 如果没有MapJob说明,所有任务都在执行,并且还有任务没有完成,所以Worker应该是要进入Waite,否则一定有Map任务分配给Worker,任取一个MapJob出来即可,对应的要开一个协程来对超时的任务进行重加载。 func (m *Master) AssignMapJob() (MasterStatu, string, int) {
if len(m.MapJob) == 0 {
return Waiting, "", 0
}
JobType := Maping
FilePath := ""
for k := range m.MapJob {
FilePath = k
break
}
delete(m.MapJob, FilePath)
go MapJobTLE(FilePath, m)
return JobType, FilePath, m.GetWorkerNumber()
}
-
AssignReduceJob 具体逻辑同AssignMapJob。 func (m *Master) AssignReduceJob() (MasterStatu, []int, int) {
if len(m.ReduceJob) == 0 {
return Waiting, []int{}, 0
}
ReduceNumber := 0
for k := range m.ReduceJob {
ReduceNumber = k
}
delete(m.ReduceJob, ReduceNumber)
go ReduceJobTLE(ReduceNumber, m)
return Reducing, m.MapJobList, ReduceNumber
}
JobDone
这里通知的只有两种状态:Map or Reduce。由于是并发,所以只要记录第一个完成该任务的信息即可。
当所有Map任务都完成时,记得初始化Reduce任务,并切换进入Reducing状态。
当所有Reduce任务都完成时,同样也是切换进入Done状态。
func (m *Master) JobDone(req *JobDoneRequest, resp *JobDoneResponse) error {
m.Mu.Lock()
defer m.Mu.Unlock()
switch req.JobType {
case Maping:
_, done := m.MapJobDone[req.FilePath]
if !done {
m.MapJobDone[req.FilePath] = req.WorkerNumber
delete(m.MapJob, req.FilePath)
}
if len(m.MapJobDone) == m.NMapJob {
m.initReduceJob()
}
case Reducing:
m.ReduceJobDone[req.WorkerNumber] = true
delete(m.ReduceJob, req.WorkerNumber)
if len(m.ReduceJobDone) == m.NReduce {
m.Statu = Done
}
}
return nil
}
Worker
Worker
Worker的入口函数,具体作用就是不断地向Master发送Rpc请求,去获取任务。
DoMap和DoReduce的实现可以直接参照给定的参考程序,基本逻辑都是差不多的,一些区别:
- Map的中间键值需要通过ihash函数将其分为nReduce份存储。
- Reduce应该是从多份文件中读到中间键值再进行操作。
func Worker(mapf func(string, string) []KeyValue, reducef func(string, []string) string) {
for {
resp := &GetOneJobResponce{}
ok := call("Master.GetOneJob", &GetOneJobRequest{}, resp)
if !ok || resp.JobType == Done {
return
}
switch resp.JobType {
case Maping:
DoMap(mapf, resp.FilePath, resp.WorkerNumber, resp.NReduce)
case Reducing:
DoReduce(reducef, resp.PathList, resp.ReduceNumber)
case Waiting:
time.Sleep(5 * time.Second)
}
}
}
成果
|