• mapreduce中的MapTask工作机制(Hadoop)


    MapTask工作机制

    MapReduce中的Map任务是整个计算过程的第一阶段,其主要工作是将输入数据分片并进行处理,生成中间键值对,为后续的Shuffle和Sort阶段做准备。
    在这里插入图片描述


    1. 输入数据的划分:

    • 输入数据通常存储在分布式文件系统(如HDFS)中,InputFormat负责将输入数据划分成若干个InputSplit,每个InputSplit对应一个Mapper任务的输入
    • 输入数据被划分成多个InputSplit的目的是为了充分利用集群中的计算资源,并实现数据的并行处理。
    • MapTask通过InputFormat获得的RecordReader,从输入InputSplit中解析出一个个key/value

    2. Map任务的启动:

    • 一旦MapReduce作业被提交,Master节点(JobTracker)会将Map任务分配给空闲的Map任务槽(Task Slot)。
    • 每个Map任务槽都运行在集群中的某个节点上,并且能够处理一个或多个Mapper任务。

    3. Mapper的初始化:

    • Map任务被分配到一个节点上时,该节点会启动一个Mapper实例。
    • Mapper实例会首先执行初始化操作,包括获取输入数据的位置信息、加载用户自定义的Map函数等。

    4. 数据处理:

    • Mapper开始处理其对应的InputSplit中的数据。
    • 对于每个输入记录,Mapper会调用用户定义的Map函数,该函数将输入记录转换成若干个中间键值对(key-value pairs)。
    • 这些中间键值对通常表示了对输入数据的处理结果,比如单词计数问题中,键可以是单词,值可以是该单词出现的次数。

    Map任务中,为了提高处理速度和效率,通常会采取一些数据处理优化策略,比如:

    • 数据局部性优化:尽可能在处理数据时减少网络通信开销,使得处理同一输入分片的数据的Mapper任务能够在同一个节点上执行,以减少数据的传输成本

    • 流水线处理Map任务可以通过流水线处理来提高吞吐量,即在处理一个输入记录的同时,可以开始处理下一个输入记录,从而减少处理过程中的等待时间


    5. 中间结果的缓存:

    Map任务通常会将中间结果缓存在内存中,但如果缓存空间不足以存储所有的中间结果时,会采取一些策略来管理缓存,例如

    • 溢出到磁盘:当内存中的中间结果达到一定阈值时(比如默认的80%),Map任务会将部分中间结果写入磁盘的临时文件中,以释放内存空间,从而继续处理新的输入记录。

    • 内存管理算法:Map任务可能采用LRU(最近最少使用)等算法来管理内存中的中间结果,保留最常使用的数据,释放不常用的数据。

      在 Map 阶段完成后,中间结果会被写入本地磁盘,但在写入之前,通常会进行本地排序操作

    • 本地排序可以确保相同 key 的数据在同一个位置,以便后续的 Shuffle 阶段更高效地进行数据传输和处理。

    • 在必要时,还可以对数据进行合并和压缩操作,以减少存储空间和提高数据传输效率。这些步骤都是为了优化整个 MapReduce 作业的性能和效率。

    • 溢写阶段排序详情: 利用快速排序算法对缓存区内的数据进行排序,排序方式是,先按照分区编号Partition 进行排序,然后按照key进行排序。这样,经过排序后,数据以分区为单位聚集在一起,且同一分区内所有数据按照key有序。


    6. 任务状态更新:

    • Map任务执行期间,Master节点会周期性地接收来自Map任务的心跳信息,以报告任务的运行状态,并定期更新任务进度

    • 如果Map任务长时间没有发送心跳信息,Master节点可能会将其标记为失败,并重新分配任务给其他节点执行。

    • Map任务在执行完所有的输入记录后,会向Master节点报告任务完成,并将生成的中间结果的位置信息发送给Master

    • MapReduce框架具有强大的容错机制,即使Map任务在执行过程中出现失败,Master节点也能够重新分配任务并继续执行,以确保作业的顺利完成


    7. Map任务的结束:

    • 所有数据处理完成后,MapTask 对所有临时文件进行一次合并,以确保最终只会生成一个数据文件。

    • 当所有数据处理完后,MapTask 会将所有临时文件合并成一个大文件,并保存到文件output/file.out 中,同时生成相应的索引文件output/file.out.index。

    • 在进行文件合并过程中,MapTask以分区为单位进行合并。对于某个分区,它将采用多轮递归合并的方式。每轮合并mapreduce.task.io.sort.factor(默认 10)个文件,并将产生的文件重新加入待合并列表中,对文件排序后,重复以上过程,直到最终得到一个大文件。

    • 让每个 MapTask 最终只生成一个数据文件,可避免同时打开大量文件和同时读取大量小文件产生的随机读取带来的开销。

    • 一旦所有的输入记录都被处理完毕,并且中间结果都被写入磁盘,Map任务就会结束。

    • Map任务会将最终的中间结果的位置信息发送给Master节点,以便后续的ShuffleSort阶段能够获取到这些数据。


    8.示例

    假设我们有一个大的文本文件,其中包含了多篇文章,每篇文章之间由一个或多个空行分隔。Map任务的目标是将输入数据中的每个单词映射成键值对(单词, 1),以便后续的Reduce任务可以统计每个单词的频次。


    (1) 输入数据的划分

    • Hadoop中,这个文本文件被分成若干个逻辑块(block),每个逻辑块会被存储在HDFS的不同节点上。当我们提交MapReduce作业时,Hadoop会将这些逻辑块划分成若干个InputSplit,每个InputSplit对应一个Mapper任务的输入。

    (2) Map任务的启动

    • 一旦MapReduce作业被提交,Master节点会启动作业的第一个阶段,即Map阶段。Master节点会根据集群中的可用资源情况,将Map任务分配给空闲的节点上的Map任务槽。

    (3) Mapper的初始化

    • 每个Mapper任务在运行之前都需要进行初始化。这个初始化过程包括获取对应的InputSplit的数据位置信息、加载用户自定义的Map函数等

    • 在我们的例子中,Map函数需要额外的逻辑来识别文章的标题。


    (4) 数据处理

    • Mapper开始处理其对应的InputSplit中的数据。对于每个InputSplitMapper会逐行读取数据。
    • 在我们的例子中,Mapper会识别每篇文章的标题,并为每篇文章的每个单词生成键值对。对于每个键值对,键是单词,值是1,表示该单词在文章中出现了一次。

    (5) 中间结果的缓存

    • Mapper会将生成的中间键值对缓存在内存中。当内存中的数据达到一定阈值时,部分结果会被写入磁盘的临时文件中以释放内存空间。
    • 在我们的例子中,中间结果包括文章标题和单词出现次数的键值对。

    (6)任务状态更新

    • Map任务执行期间,Mapper会定期向Master节点发送心跳信息,以报告任务的运行状态和进度。Master节点会根据这些信息来监控任务的执行情况,并在必要时重新分配任务。

    (7) Map任务的结束

    • Mapper处理完其对应的InputSplit中的所有数据,并且中间结果都被写入磁盘后,Map任务结束。
    • Mapper会将最终的中间结果的位置信息发送给Master节点,以便后续的ShuffleSort阶段能够获取到这些数据。

    通过Map任务的执行,我们得到了每篇文章中单词的频次统计结果,并且识别出了每篇文章的标题。这些中间结果将被用于后续的Shuffle和Sort阶段,最终得到我们想要的每篇文章中单词的频次统计结果。

  • 相关阅读:
    所有子数组的(最小值 x 累加和)中的最大值
    55、基于 WebFlux 开发 WebSocKet
    156.25MHz的差分晶体振荡器SG3225VEN
    前端多媒体处理工具——ffmpeg的使用
    【scala】阶段性练习
    前端 JavaScript 数组相关知识点有哪些?
    二叉树:有了如此高效的散列表,为什么还需要二叉树?
    CGAL4.4+VC2008编译
    实用的嵌入式编码技巧:第三部分
    教你把mov格式的视频转换mp4
  • 原文地址:https://blog.csdn.net/weixin_48935611/article/details/137883465