MapTask工作机制

版权声明:有一种生活不去经历不知其中艰辛,有一种艰辛不去体会,不会知道其中快乐,有一种快乐,没有拥有不知其中纯粹 https://blog.csdn.net/wwwzydcom/article/details/83834605

maptask并行度决定map阶段的任务处理并发度,进而影响job的处理速度

MapTask 并行度决定机制

一个job的map阶段并行度(个数) 由客户端提交job时的切片个数决定
在这里插入图片描述

  1. 一个job的map阶段并行度由客户端在提交job时决定
  2. 每一个split切片分配一个mapTask
  3. 默认 切片大小=blocksize
  4. 切片时不考虑数据集整体,而是逐个对每一个文件单独切片

MapTask工作机制

在这里插入图片描述
Read阶段;
读文件

输入文件对文件切片的规划
在这里插入图片描述
Map阶段:
业务逻辑
在这里插入图片描述
Collect阶段:
分区 排序
溢写阶段:
写磁盘
Combine阶段:
归并

(1)Read 阶段:Map Task 通过用户编写的 RecordReader,从输入 InputSplit 中解析出
一个个 key/value。
(2)Map 阶段:该节点主要是将解析出的 key/value 交给用户编写 map()函数处理,并
产生一系列新的 key/value。
(3)Collect 收集阶段:在用户编写 map()函数中,当数据处理完成后,一般会调用
OutputCollector.collect()输出结果。在该函数内部,它会将生成的 key/value 分区(调用
Partitioner),并写入一个环形内存缓冲区中。
(4)Spill 阶段:即“溢写”,当环形缓冲区满后,MapReduce 会将数据写到本地磁盘上,
生成一个临时文件。需要注意的是,将数据写入本地磁盘之前,先要对数据进行一次本地排
序,并在必要时对数据进行合并、压缩等操作。
溢写阶段详情:
步骤 1:利用快速排序算法对缓存区内的数据进行排序,排序方式是,先按照分区编号
partition 进行排序,然后按照 key 进行排序。这样,经过排序后,数据以分区为单位聚集在
一起,且同一分区内所有数据按照 key 有序。
步骤 2:按照分区编号由小到大依次将每个分区中的数据写入任务工作目录下的临时文
件 output/spillN.out(N 表示当前溢写次数)中。如果用户设置了 Combiner,则写入文件之
前,对每个分区中的数据进行一次聚集操作。
信息包括在临时文件中的偏移量、压缩前数据大小和压缩后数据大小。如果当前内存索引大
小超过 1MB,则将内存索引写到文件 output/spillN.out.index 中。
(5)Combine 阶段:当所有数据处理完成后,MapTask 对所有临时文件进行一次合并,
以确保最终只会生成一个数据文件。
当所有数据处理完后,MapTask 会将所有临时文件合并成一个大文件,并保存到文件
output/file.out 中,同时生成相应的索引文件 output/file.out.index。
在进行文件合并过程中,MapTask 以分区为单位进行合并。对于某个分区,它将采用多
轮递归合并的方式。每轮合并 io.sort.factor(默认 100)个文件,并将产生的文件重新加入
待合并列表中,对文件排序后,重复以上过程,直到最终得到一个大文件。
让每个 MapTask 最终只生成一个数据文件,可避免同时打开大量文件和同时读取大量
小文件产生的随机读取带来的开销。

猜你喜欢

转载自blog.csdn.net/wwwzydcom/article/details/83834605