• Hadoop3教程(十):MapReduce中的InputFormat


    (87)切片机制与MapTask并行度决定机制

    什么是MapTask的并行度?

    即在一个MR程序里,需要并行开启多少个MapTask,来处理数据。

    并行度是越大越好么,当然不是,这玩意儿当然还得看需要处理的数据量,如果数据量不大,开一堆MapTask的话,既浪费资源,又拖慢整体速度(MapTask初始化也是要时间的)。

    那么MapTask的并行度设置多少比较合适,或者说应该参考什么指标来制定?

    首先我们复习一下block的概念,即文件块,是HDFS存储数据的单位,一般是128M一个数据块。block属于是在物理磁盘上,切切实实的对数据进行了分割。

    再介绍一个新概念,即数据切片,数据切片是在逻辑上对输入的数据进行分片,并不会影响数据在物理上的存储。数据切片是MapReduce中计算输入数据的单位,每一个数据切片会对应启动一个MapTask。

    直接总结给出结论:

    • 一个job(或者说一个MR程序)的Map阶段并行度,由客户端在提交job时的切片数来决定;

    • 每一个切片分配一个MapTask

    • 默认情况下,切片大小等于块大小。(即默认也是128M)

    • 切片时不考虑数据整体,而是逐个对每一个所提交文件单独切片,即不可能出现文件A的末尾和文件B的开头出现在同一片里,这种情况。

    结论3和结论4其实原因差不多哈,可以理解成是为了尽量避免在不同DataNode之间通信的损耗。

    比如说现在我要处理的一个大文件,命名成a.txt吧,它的第一个block位于DataNode_1上,第二个block位于DataNode_2上,第三个block位于DataNode_3上。

    如果切片大小不等于block大小的话,且考虑数据整体,那肯定会出现不同DataNode上的数据位于同一个切片的情况。

    比如说我把切片大小定为100M,那么第一片就位于DataNode_1上,是0M~100M,然后DataNode_1上只剩下28M数据,需要从DataNode_2上再拿72M数据,才能再凑齐一个切片。

    那这就有问题了,在处理第二个切片的时候,需要同时通信DataNode_1和DataNode_2,肯定是不如在单个DataNode上完全处理完要好。

    因此,切片大小等于块大小,是比较好的。

    结论4的原因也差不多,不同文件的block存放的DataNode那肯定更五花八门了,说不定处理一个切片都得联系五六个DataNode,那太低效了。

    (90) 切片源码总结

    切片这个动作是针对输入数据的,默认是FileInputFormat,主要步骤我们可以文件简单描述一遍。

    1) 程序需要先找到你数据存储的目录;

    2) 开始遍历(以规划切片)该目录下的每一个文件;

    3) 遍历第一个文件a.txt

    3.1) 先获取文件的大小;

    3.2) 然后计算(或者说获取)切片的大小。这个是有计算公式的:

    computeSplitSize = max(minSize, min(maxSize, blocksize))
    
    • 1

    minSize默认是1M,maxSize默认是Long型的最大值。

    因此默认情况下,上面公式会计算出computeSplitSize = blocksize

    这里我们发散一下,如果我想改大切片大小,比如说想让它等于256M,我该怎么办?

    当然是修改minSize=256,上式可以自己算一下。

    同理,如果是想改小切片大小,比如说等于64M,那就修改maxSize=64

    简单的说就是,如果想调小片大小,就修改MaxSize,如果想调大片大小,就修改MinSize

    3.3) 然后开始切片,比如说0~128是第一片,128~256是第二片;

    这里也有个需要注意的点,就是每次切片的时候,都会判断切完后,该文件剩下的大小,是否大于blocksize(教程里写的是块大小,但是我感觉这里是不是对比的应该是切片大小,之后看源码来判断吧)的1.1倍,如果小于的话,那就不再切了,剩下的部分作为最后一块切片。反之则继续切。

    3.4) 将切片的信息写到一个切片规划文件中;

    这里的切片规划InputSplit只记录了切片的元数据信息,比如每一片的切片起始位置等,并不是真正的切了。

    以上切片的核心过程,都是在FileInputFormat.getSplit()中完成;

    4) 最后,Client提交切片规划文件给YARN,YRAN上的MrAPPMaster就会根据规划文件来计算所需的MapTask个数。

    附一张教程里的图,可做辅助理解:

    在这里插入图片描述

    (91)FileInputFormat切片机制

    默认的FileInputFormat切片机制流程,跟上一小节介绍的基本一样:

    • 根据文件的内容长度开始切片;
    • 切片大小等于block大小
    • 切片时不考虑整体,而是对每一个文件分别切割;

    这是默认情况下的一个切片机制, 并不是一成不变的

    举一个例子,假设我要处理20个文件,每个文件大小是1KB,当前blockSize=128M,按照上面的规则,对每一个文件分别切片,那就相当于1个文件一片,一共20片,对应的,我就要启动20个MapTask去执行读。

    想象一下,就为了这20KB的数据,我需要耗费大量的时间和空间,去初始化并执行20个MapTask,这是非常不合理的,所以这种时候我们就可以打破默认的限制,将几个文件组合在一起来作为一片。这就是CombineTextInputFormat,这个后面会仔细讲。

    教程在这里讲了一个基于FileInputFormat的实例,我也放上来吧。

    假设现在有两个输入文件:

    • file_1.txt,320M
    • file_2.txt,10M

    开始切片,形成的切片信息如下:

    • file_1.txt.split_1:0~128M;
    • file_1.txt.split_2:128~256M;
    • file_1.txt.split_3:256~320M;
    • file_2.txt.split_1:0~10M;

    具体的切片流程,上一小节都讲过了,这里就不展开了,只记录一下,在代码里如何获取切片信息?

    // 根据文件类型获取切片信息
    FileSplit inputSplit = (FileSplit)context.getInputSplit();
    //获取切片的文件名称
    String name = inputSplit.getPath().getName();
    
    • 1
    • 2
    • 3
    • 4

    (92)TextInputFormat及其他实现类一览

    严格来讲,FileInputFormat是一个接口类,我们日常开发中常用的,还是它的那些接口实现类,比如说:TextInputFormat、KeyValueTextInputFormat、NLineInputFormat、CombineTextInputFormat和自定义InputFormat等。

    其中用的最多的,是TextInputFormat和CombineTextInputFormat,所以教程里重点讲了一下这两种,尤其是后者,我就顺着教程来了。

    看了下源码, 切片时还需要先判断文件是否可以切割,一般来讲,压缩文件是不能切割的。但是也不绝对,看你用的哪种压缩算法,有的压缩格式的文件倒是也能切,在后续的(123)压缩概述小节里会详细介绍下这些。

    KeyValueTextInputFormat,是需要传入一个分隔符,然后拿着这个分隔符去切割输入的数据,切出来的0号位作为Key,剩下的部分作为value。

    NLineInputFormat,是一次性读取多行,而TextInputFormat一次性只读取一行,这个区别很好理解,相当于是加强版,就不赘述了。

    相当于对TextInputFormat来讲,一个10行的输入文本,它会对应生成10个KV对,但是对NLineInputFormat来讲,它可能只会生成2个KV对(假设它一次性读取5行),可能效率会高一些。

    CombineTextInputFormat,是一次性读取多个文件进行组合,组合在一起进行后续的处理,比如说切片。非常适合小文件多的情况,避免了冗余MapTask。

    TextInputFormat,就是一行一行读取文件,形成的输入KV对中,键就是该行在整个文件里的起始字节偏移量(我理解,作用跟行号差不多,但确实不是行号),值就是该行的内容,不包含换行和回车符。

    以下是一个示例,比如,一个分片包含了如下4条文本记录。

    Rich learning form
    Intelligent learning engine
    Learning more convenient
    From the real demand for more close to the enterprise
    
    • 1
    • 2
    • 3
    • 4

    每条记录在读取后,会表示为以下键值对:

    (0,Rich learning form)
    (20,Intelligent learning engine)
    (49,Learning more convenient)
    (74,From the real demand for more close to the enterprise)
    
    • 1
    • 2
    • 3
    • 4

    (93) CombineTextInputFormat切片机制

    原理

    1)CombineTextInputFormat是用来解决小文件过多的问题

    上一小节提过,TextInputFormat是按照文件做切片的,一个文件,即使只有1KB,也会切成一片,从而开启一个单独的MapTask。在小文件过多的时候,这种对资源的浪费简直是不可想象的。

    于是提出了CombineTextInputFormat,它可以把几个小文件在逻辑上分进同一个切片,这样子启动一个MapTask就可以了。

    2) CombineTextInputFormat中,切片大小比较难理解,这个涉及到一个虚拟存储的概念。

    CombineTextInputFormat.setMaxInputSplitSize(job, 默认大小);
    
    • 1

    CombineTextInputFormat生成切片的过程,也跟其他实现类不太一样,它是分为两个步骤:

    • 虚拟存储过程
    • 正式切片过程

    案例讲解

    接下来上一个实例来讲解,比如说要将文件按照字典数据排序。

    假设,现在定义的CombineTextInputFormat的MaxInputSplitSize=4M,然后我们的输入数据是四个文件,分别是:

    • a.txt,1.7M;
    • b.txt,5.1M;
    • c.txt,3.4M;
    • d.txt,6.8M;

    1) 首先会将文件,按照字典数据做排序,就是abcd,然后再开始切片, 这个排序直接影响了哪些文件会合在一起

    2) 接下来是虚拟存储过程:

    • 对a.txt,由于1.7M < 4M ,即MaxInputSplitSize,因此逻辑上划分为1块;
    • b.txt,由于4M < 5.1M < 2 * 4M,因此逻辑上均分为两块,第一块是2.55M,第二块也是2.55M;
    • c.txt,由于3.4M < 4M,因此逻辑上划分为1块;
    • d.txt,4M < 6.8M < 2 * 4M,因此逻辑上均分为两块,块1=3.4M,块2=3.4M;

    然后虚拟存储结束,我们得到了以下虚拟分块:

    1.7M
    2.55M
    2.55M
    3.4M
    3.4M
    3.4M
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    3) 再接着,我们就可以开始规划切片了,这里切片的基本规则: 判断虚拟存储的文件大小是否大于MaxInputSplitSize,如果大于则单独成片,小于则组合下一个虚拟存储文件,直到大于MaxInputSplitSize,组合成片

    按照这个规则,我们可以得到以下三个切片:

    片一:1.7M + 2.55M
    片二:2.55M + 3.4M
    片三:3.4M + 3.4M
    
    • 1
    • 2
    • 3

    弹幕里提了一个问题,假设我有一个10M的文件,那么按照上面的规则,是会划分成几个多大的虚拟存储文件?

    确实是好问题,4M < 2 * 4M < 10M,我个人感觉是划分成 4M + 3M + 3M,即划分出第一块后,剩下6M重新开始判断,并最终均分为3M + 3M;

    也有人说是划分成4M + 4M + 2M,感觉也有点道理,但还是更支持前面那种,先暂存一下,后来再查。

    2023-10-15 12:08:08 后来忘记查了,我刚把这个问题问了下文心一言,它告诉我都行。。。两种方式都行。。。。

    2023-10-15 12:11:13 查阅了下相关资料,应该是前者,先划分一块4M的出来,剩下的再跟MaxInputSplitSize去比较。合理。

    MR代码在编写的时候,需要在Driver里定义以下代码:

    // 如果不设置InputFormat,默认使用的是TextInputFormat.class
    job.setInputFormatClass(CombineTextInputFormat.class);
    
    // 虚拟存储切片最大值设置4m
    CombineTextInputFormat.setMaxInputSplitSize(job, 419304);
    
    • 1
    • 2
    • 3
    • 4
    • 5

    如果用以上代码来处理上一小节说的4个文件,从打印的日志里可以看到有3个切片:

    number of split:3
    
    • 1

    就说明是3个切片。

    参考文献

    1. 【尚硅谷大数据Hadoop教程,hadoop3.x搭建到集群调优,百万播放】
    2. 他来了他来了,Hadoop序列化和切片机制了解一下?
  • 相关阅读:
    RHCE第六次作业
    C语言·对文件的输入输出(万字详解)
    2023 IDEA大会开幕 共探AI新篇章下的技术创新与创业
    OpenLayers构建4490坐标系地图解决方案
    nginx 客户端返回499的错误码
    java构造方法使用
    完美修复google翻译失效的问题
    实验四 图像复原及几何校正
    树、二叉树、堆及其应用(堆排序、top-k问题)
    goland 旧版本使用1.19环境
  • 原文地址:https://blog.csdn.net/wlh2220133699/article/details/133845268