• Hadoop入门(五):集群配置


    集群配置

    目标

    建立三个hadoop之间的连接,前面是配置使得他们独立,现在把相关的配置到一起:
    在这里插入图片描述
    相关说明:

    • NameNode 和 SecondaryNameNode 不要安装在同一台服务器(它们两个都需要耗内存,分开减少集群的压力
    • ResourceManager 也很消耗内存,不要和 NameNode、SecondaryNameNode 配置在同一台机器上。

    配置说明

    默认配置:
    在这里插入图片描述
    自定义配置文件:
    core-site.xml 、hdfs-site.xml 、yarn-site.xml 、mapred-site.xml 四个配置文件存放在
    $HADOOP_HOME/etc/hadoop 这个路径上,用户可以根据项目需求重新进行修改配置。

    配置集群

    核心配置文件

    先配置hadoop102,cd到目录下:

    cd $HADOOP_HOME/etc/hadoop
    
    • 1

    编写文件:

    vim core-site.xml
    
    • 1

    可以看如下:
    在这里插入图片描述
    添加内容:

     <!-- 指定 NameNode 的地址 -->
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://hadoop102:8020
        </property>
    
        <!-- 指定 hadoop 数据的存储目录 -->
        <property>
            <name>hadoop.tmp.dir</name>
            <value>/home/chuan/software/hadoop-3.2.4/data</value> 
        </property>
    
        <!-- 配置 HDFS 网页登录使用的静态用户为 chuan -->
        <property>
            <name>hadoop.http.staticuser.user</name>
            <value>chuan</value>
        </property>
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18

    如下:
    在这里插入图片描述

    HDFS配置
    vim hdfs-site.xml
    
    • 1

    核心配置文件中NameNode地址hdfs://hadoop102:8020相当于是hadoop内部通讯地址,
    现在NameNode是HDFS需要用户在web界面上访问,不需要操作命令行,即也需要对外暴露一个接口hadoop102:9870

    添加内容:

    <property>
            <name>dfs.namenode.http-address</name>
            <value>hadoop102:9870</value>
        </property>
      <!-- SecondaryNameNode web 端访问地址-->
        <property>
            <name>dfs.namenode.secondary.http-address</name>
            <value>hadoop104:9868</value>
        </property>
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10

    如下:
    在这里插入图片描述

    YARN配置
    vim yarn-site.xml
    
    • 1

    添加内容:

       <!-- 指定 MR 走 shuffle --> 
        <property> 
            <name>yarn.nodemanager.aux-services</name> 
            <value>mapreduce_shuffle</value> 
        </property> 
     
        <!-- 指定 ResourceManager 的地址--> 
        <property> 
            <name>yarn.resourcemanager.hostname</name> 
            <value>hadoop103</value> 
        </property> 
     
        <!-- 环境变量的继承 --> 
        <property> 
            <name>yarn.nodemanager.env-whitelist</name> 
            
    <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value> 
        </property> 
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18

    如下:
    在这里插入图片描述

    MapReduce 配置
    vim mapred-site.xml
    
    • 1

    添加内容:

     <!-- 指定 MapReduce 程序运行在 Yarn 上 -->
        <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property>
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    如下:
    在这里插入图片描述

    分发配置文件

    xsync software/hadoop-3.2.4/etc/hadoop/
    
    • 1

    如下:
    在这里插入图片描述
    可以去hadoop103和hadoop104上检查一下是否成功:

    cat  software/hadoop-3.2.4/etc/hadoop/core-site.xml 
    
    • 1

    如下:
    在这里插入图片描述
    在这里插入图片描述
    现在未知,集群的配置就完成了。

    配置workers

    在启动集群前需要配置workers

    进入目录:

    cd $HADOOP_HOME/etc/hadoop
    
    • 1

    编写workers:

    vim workers
    
    • 1

    如下:
    在这里插入图片描述
    删除,内容修改为:

    hadoop102
    hadoop103
    hadoop104
    
    • 1
    • 2
    • 3

    如下:
    在这里插入图片描述
    在这里插入图片描述
    分发

    xsync  workers
    
    • 1

    如下:
    在这里插入图片描述

    回到根目录

    cd  ~
    
    • 1

    同步所有节点配置文件

    xsync  software/hadoop-3.2.4/etc/
    
    • 1

    如下:
    在这里插入图片描述

    启动集群

    初始化

    hdfs namenode -format
    
    • 1

    如下:
    在这里插入图片描述
    可见多了一个data文件夹和logs文件夹:
    在这里插入图片描述

    启动集群

    进入目录:

    cd sbin/
    
    • 1

    如下:
    在这里插入图片描述
    启动:

    start-dfs.sh
    
    • 1

    如下:
    在这里插入图片描述
    启动完毕~

    用jps查看102,103,104
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    结果与前面的目标一直:
    在这里插入图片描述

    ResourceManager节点启动 YARN

    也就是Hadoop103上面启动:

    start-yarn.sh
    
    • 1

    如下:
    在这里插入图片描述
    用jps查看102,103,104
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    Web 查看 HDFS 的 NameNode

    浏览器输入如下查看 HDFS 上存储的数据信息:

    http://hadoop102:9870
    
    • 1

    如下:
    在这里插入图片描述

    Web 端查看 YARN 的 ResourceManager

    http://hadoop103:8088可以查看,如下:
    在这里插入图片描述
    如果你打不开,肯定是配置问题了,我遇到已经解决,请查看:yarn启动后用jps查看没有resourcemanager

  • 相关阅读:
    Mybatis-Plus最新教程
    深入了解海豚调度DolphinScheduler
    “蔚来杯“2022牛客暑期多校训练营7
    string
    日志管理系统,多种方式总结
    Android studio实现自定义圆形进度条 带刻度进度条 计步效果 时速表 水波纹效果
    安达发|制造业的新趋势:APS排程软件的广泛应用
    第4章 进程同步
    产品发布新闻稿件怎么写?稿件撰写技巧分享
    阿里巴巴资深架构师熬几个通宵肛出来的Spark+Hadoop+中台实战pdf
  • 原文地址:https://blog.csdn.net/weixin_46211269/article/details/126552728