• Hadoop的由来、Block切分、进程详解


    Hadoop的由来、Block切分、进程详解

    一、hadoop的由来

    Google发布了三篇论文:

    • GFS(Google File System)
    • MapReduce(数据计算方法)
    • BigTable:Hbase

    Doug cutting 花费了两年的业余时间实现了前两篇论文,并重新命名为HDFS和MapReduce

    Doug cutting看到他儿子在牙牙学语时,抱着黄色小象,亲昵的叫 hadoop,他灵光一闪,就把这技术命名为 Hadoop,而且还用了黄色小象作为标示 Logo,不过,事实上的小象瘦瘦长长,不像 Logo 上呈现的那么圆胖。“我儿子现在 17 岁了,所以就把小象给我了,有活动时就带着小象出席,没活动时,小象就丢在家里放袜子的抽屉里。” Doug Cutting 大笑着说。

    image-20220516210829470

    Hadoop由三大开源发行版本:Apache、Cloudera(CDH)、Hortonworks(HDP)。Apache版本是最原始的版本。Cloudera在大型互联网企业中用的较多。Hotronworks文档较好。

    2018年10月,均为开源平台的Cloudera与Hortonworks公司宣布他们以52亿美元的价格合并。两大开源大数据平台Cloudera与Hortonworks宣布合并,合并后的企业定位为企业数据云提供商,推出了ClouderaDataPlatform(CDP),可以跨AWS、Azure、Google等主要公有云架构进行数据管理。2020年6月,Cloudera发布CDP私有云,将本地部署环境无缝连接至公有云。

    Hadoop Common:基础型功能

    Hadoop Distributed File System (HDFS™):一种分布式文件系统,可提供对应用程序数据的高吞吐量访问。负责存放数据

    Hadoop YARN:作业调度和集群资源管理的框架。负责资源的调配

    Hadoop MapReduce:基于 YARN 的系统,用于并行处理大型数据集。大数据的计算框架

    二、分布式文件系统

    1、FS File System

    ​ 文件系统时极域硬盘之上的文件管理的工具

    ​ 我们用户操作文件系统可以和硬盘进行解耦

    2、DFS Distributed File System

    ​ 分布式文件系统

    ​ 将我们的数据存放在多台电脑上存储

    ​ 分布式文件系统有很多,HDFS(Hadoop Distributed FileSyetem)是Hadoop自带的分布式文件系统

    ​ HDFS是mapreduce计算的基础

    三、文件切分的思想

    • 文件存放在一个磁盘上效率肯定是最低的,如果文件特别大可能会超出磁盘的存储范围
    • 文件在磁盘中真是存储文件的方式是字节数组,数组可以进行拆分和组装,源文件不会收到影响
    • 对字节数组进行拆分,按照数组的偏移量将数据连到一起。偏移量可以理解为下标。

    四、Block块拆分

    数据块block

    • 是磁盘进行数据读写的最小单位,数据被切分后的一个整体称为一个block块
    • 在Hadoop2之后默认一个block块的大小为128M,这是为了最小寻址化开销
    • 同一个文件中,每个数据块的大小一致,除了最后一个节点
    • HDFS中小于一个块大小的文件不会占据整个块的空间,也就是说,如果一个文件小于128M,它在HDFS中所占的真实存储空间与文件大小一致,也会占一个block块

    为什么拆分的数据块要等大

    • 数据计算的时候简化问题的复杂度,否则进行分布式算法设计的时候会因为数据量不一致很难设计
    • 数据拉取的时间相对一致
    • 通过偏移量就知道这个块的位置
    • 相同文件分成的数据块大小应该相等

    HDFS中为什么块不能设置太大也不能设置太小,为什么要设置成128M

    1. 如果块设置太大
      • 从磁盘传输数据的时间会明显大于寻址时间,导致程序在处理这块数据时变得很慢
      • mapreduce中的map任务通常一次只处理一个块的数据,如果块太大运行速度会很慢
      • 在数据读写计算的时候,需要进行网络传输,如果block块过大导致网络传输时间增加,可能会出现程序卡顿/超时/无响应。任务执行过程中拉取其他节点的block或者失败重试的成本会过高
      • namenode监管容易判断数据节点死亡。导致集群频繁产生/移除副本,占用cpu、网络、内存资源
    2. 如果块设置过小
      • 文件块过小,寻址时间增大,导致程序一直在找block块的开始位置
      • 存放大量小文件会导致namonode中占用大量内存来存储元数据,而namenode的物理内存是有限的
      • 操作系统对目录中的小文件处理存在性能问题,比如同一个目录下文件数量操作100万,执行"fs -l "之类的命令会卡死;
      • 会频繁的进行文件传输 ,严重占用cpu、网络资源
    3. 首先HDFS中平均寻址时间大概为10ms;
      经过大量测试发现,寻址时间为传输时间的1%时,为最佳状态,所以最佳传输时间为:
      10ms/0.01=1000s=1s
      目前磁盘的传输速度普遍为100MB/s,最佳block大小计算:
      100MB/s*1s=100MB
      所以我们设置block大小为128MB
      而在实际中,
      磁盘传输速率为200MB/s时,一般设定block大小为256MB;
      磁盘传输速率为400MB/s时,一般设定block大小为512MB。

    注意事项

    • 只要有一个块丢失,整个数据文件损坏
    • HDFS中文件一旦被存储,数据不允许修改,修改会影响偏移量,但是可以被追加(不推荐)追加设置需要手动打开

    五、block块数据安全

    • HDFS是直接对原始数据进行备份,这样可以保证恢复效率和读取效率
    • 备份的数据不能放到一个节点上,使用数据的时候可以就近获取
    • 备份的数量要小于等于从节点的数量
    • 每个数据块默认有三个副本,相同副本不会存放在同一个节点上
    • 副本的数量可以变更

    六、block的管理效率

    • 主节点
      • NameNode:记录元数据
      • Secondary NameNode:日志
    • 从节点
      • DataNode:实际存储数据的节点

    七、NameNode(NN)详解

    NameNode详解

    功能:

    • 接收客户端的读写请求,因为namenode知道数据文件与datanode的对应关系
    • 保存文件的时候会保存文件的元数据信息
      • 文件的归属
      • 文件的权限
      • 文件的大小、时间
      • Block信息,但是block信息不会持久化,需要每次开启集群的时候DN向NN报告
    • 收集block的位置信息
      • 系统启动
        • NN关机的时候是不会保存Block块与DataNode的映射信息的
        • DN启动的时候会自动将自己节点上的block块信息汇报给NN
        • NN接收请求之后会重新生成映射关系 File-->NN Block-->DN
        • 如果数据块的副本数小于设置数,那么NN会将这个副本拷贝到其他节点
      • 集群运行中
        • NN与DN保持心跳机制,每3秒钟发送一次
        • 如果NN与DN3秒没有心跳,则认为DN出现异常,将不会让新的数据写入这个DN中,客户端访问的时候不提供异常DN节点地址
        • 如果超过10分钟没有心跳,NN会将这个节点的数据转移到其他节点
    • 将所有的操作放到内存中执行
      • 执行速度快
      • NameNode不会和磁盘进行任何的数据交换
        • 会出现两个问题:数据的持久化、断电数据丢失

    八、DataNode(DN)

    • 存放的是文件的数据信息,以及验证文件完整性的校验信息
    • 数据存放在磁盘上
    • 启动时:向NN汇报当前DN上block的信息 运行时:时刻与NN保持心跳机制
    • 当客户端读取数据的时候,首先会去NN查询File与Block与DN的映射,然后客户端直接与DN建立连接,然后读取数据

    九、NameNode的持久化方案SecondaryNameNode(SNN)

    1. 传统的持久化方式

      • 日志方式
        • 做任何操作之前先记录日志
        • 在数据改变之前先记录对应的日志,当NN停止的时候
        • 当我下次启动的时候,只需要重新按照以前的日志“重做一遍”即可
        • 缺点:
          • log日志文件的大小不可控,随着时间的发展,集群启动的时间会越来越长
          • 有可能日志中存在大量的无效日志
        • 优点:
          • 绝对不会丢失数据
      • 快照方式
        • 我们可以将内存中的数据写出到硬盘上(序列化)
        • 启动时还可以将硬盘上的数据写回到内存中(反序列化)
        • 缺点:
          • 关机时间过长
          • 如果是异常关机,数据还在内存中,没法写入到硬盘
          • 如果写出的频率过高,导致内存使用效率低
        • 优点:
          • 启动时间较短
    2. SNN的解决方案

      • 解决思路

        • 让日志大小可控(每64M)
        • 快照需要定时保存(每隔一小时)
        • 日志加快照
      • 解决方案

        • 当我们启动一个集群的时候,会产生4个文件 ..../name/current/

          image-20220521005240506

        • 我们每次操作都会记录日志-->edits-inprogress- edits_00000001,随着时间的推移,日志文件会越来越大-当达到阈值的时候(64M或3600秒),会生成新的日志文件,edits_inprogress-000000001 -->edits_0000001,创建新的日志文件 edits_inprogress-0000000022。

          image-20220821221032124

          3-1660982332726

    十、安全模式

    安全模式是HDFS的一种工作状态,处于安全模式的状态下,只向客户端提供文件的只读视图,不接受对命名空间的修改,同时NameNode节点也不会进行数据块的复制或者删除。

    NameNode启动时,首先将镜像文件(fsimage)载入内存,并执行编辑日志(edits)中的各项操作,一旦在内存中成功建立文件系统元数据的映射,则创建一个新的fsimage文件和一个空的编辑日志。NameNode开始监听RPC和HTTP请求,此时NameNode处于安全模式,只接受客户端的读请求,目的是为了保护数据的安全。

    工作流程

    ​ a.启动 NameNode,NameNode 加载 fsimage 到内存,对内存数据执行 edits log 日 志中的事务操作。
    ​ b.文件系统元数据内存镜像加载完毕,进行 fsimage 和 edits log 日志的合并,并创 建新的 fsimage 文件和一个空的 edits log 日志文件。
    ​ c.NameNode 等待 DataNode 上传 block 列表信息,直到副本数满足最小副本条件。
    ​ d.当满足了最小副本条件,再过 30 秒,NameNode 就会退出安全模式。最小副本条件指 整个文件系统中有 99.9%的 block 达到了最小副本数(默认值是 1,可设置)

    命令操作

    查看namenode是否处于安全模式

    hdfs dfsadmin -safemode get
    

    进入安全模式

    hdfs dfsadmin -safemode enter
    

    强制退出安全模式

    hdfs dfsadmin -safemode leave
    

    等待安全模式结束

    hadoop dfsadmin -safemode wait
    

    十一、机架感知

    机架感知是为了保证副本在集群中的安全性,我们将block块的副本放在不同的节点上

    第一个节点:

    • 集群内部:
      • 优先考虑和客户端相同的节点
    • 集群外部
      • 优先选择资源丰富且不繁忙的节点

    第二个节点:选择与一个节点不同机架的其他节点

    第三个节点:选择与第二个节点相同机架的不同节点

    第N个节点:选择与前面节点不重复的其他节点。

  • 相关阅读:
    基于Selenium+Python的web自动化测试框架
    2022杭电多校第一场题解
    浅谈分布式任务调度系统Celery的设计与实现
    MongoDB 分片集群
    开源大模型 Llama 3
    Flink Operator 使用指南 之 全局配置
    高级性能测试系列《19.循环控制器、foreach控制器和if控制器》
    【Python】安装autopep8包,并在PyCharm中进行配置,以PEP8规范排版代码
    mysql数据库基本操作中update修改、delete删除基本操作
    Matlab实验二
  • 原文地址:https://www.cnblogs.com/bfy0221/p/16614084.html