• 大数据学习(1)-Hadoop


    &&大数据学习&&

    🔥系列专栏: 👑哲学语录: 承认自己的无知,乃是开启智慧的大门
    💖如果觉得博主的文章还不错的话,请点赞👍+收藏⭐️+留言📝支持一下博>主哦🤞


    Hadoop是一个开源的分布式计算平台,用于处理大规模数据集。Hadoop的核心组件包括:

    HDFS(Hadoop Distributed File System)

    MapReduce和Yarn。

    Hadoop的运行机制基于分布式计算的概念,即将大规模的计算任务分解为多个小任务,并在多台计算机上并行处理。Hadoop集群由多个节点组成,包括一个NameNode和若干个DataNode。NameNode负责管理文件系统的元数据,而DataNode负责存储实际的数据。

    Hadoop的运行过程包括以下几个步骤:

    1. 数据准备:将待处理的数据上传到HDFS中,可以使用Flume、Sqoop等工具将数据从其他系统导入到HDFS。
    2. 编写MapReduce程序:使用Java语言编写MapReduce程序,将计算任务划分为Map阶段和Reduce阶段。
    3. 提交任务:将编写好的MapReduce程序提交到Yarn中,Yarn负责资源的分配和管理。
    4. 任务执行:Yarn将MapReduce任务分解为多个小任务,并在集群中的不同节点上并行执行。在Map阶段,数据被划分为若干个小块,并在不同节点上进行处理;在Reduce阶段,Map阶段的输出被收集和汇总,以生成最终的结果。
    5. 结果输出:处理完成后,结果将输出到HDFS中,可以使用Hive、HBase等工具进行结果查询和分析。

    在运行过程中,Hadoop涉及到了多个技术栈,包括:

    1. HDFS:Hadoop分布式文件系统,用于存储大规模数据。
    2. MapReduce:Hadoop的核心计算模型,用于处理大规模数据集。
    3. Yarn:Hadoop的资源管理器,用于管理和分配集群中的计算资源。
    4. Hive:基于Hadoop的数据仓库工具,提供了类似于SQL的查询语言。
    5. HBase:基于Hadoop的分布式数据库,用于存储非结构化和半结构化数据。
    6. Flume:Hadoop的数据采集工具,用于将数据从不同的数据源导入到HDFS中。
    7. Sqoop:Hadoop的数据导入导出工具,用于在关系型数据库和Hadoop之间进行数据迁移。

     

    Hdfs存储:

    HDFS中每个数据节点可以存储的数据量取决于节点的硬盘大小。对于单个节点,其存储容量为磁盘容量减去配置文件(hdfs-site.xml)中的参数值dfs.datanode.du.reserved。对于一个集群,其总容量取决于所有DataNode节点的硬盘大小之和。但是需要注意的是,还需要考虑集群的备份数量。例如,如果备份数量为3,集群总容量为3TB,则实际可以存储的文件容量为1TB。

    0b44a6847c0e4fceb25abdbd104532d3.png

    大数据技术栈非常多,但是并不需要全部都懂,了解即可,我也是刚刚开始学习不久,欢迎大家的批评指正。之后会持续更新大数据了!

     

  • 相关阅读:
    Linux系统之部署Linux命令大全搜索工具
    擎创技术流 | ClickHouse实用工具—ckman教程(5)
    hive 任务日期设置(分区和业务日期)
    【经典PageRank 】02/2 算法和线性代数
    jq——基础操作——jq操作回顾(都忘光了。。。)
    QT写入文件与读取文件内容
    flex_dashboard
    model_state_dict网络部分参数的更新
    内蒙古简易医院企业网设计与规划
    论文阅读 Dynamic Network Embedding by Modeling Triadic Closure Process
  • 原文地址:https://blog.csdn.net/weixin_61006262/article/details/133699440