• 大数据Hadoop入门之集群的搭建


    hadoop的三种运行模式

    1. 本地模式:测试本地的hadoop是否能够运行,用来运行官方的代码。
    2. 伪分布模式:原先有人拿来测试,目前测试都不用这个模式了。
    3. 完全分布模式:多台服务器组成分布式环境,生产环境使用

    分布式主机文件同步命令

    • scp -r 需要分发的本机文件路径 外部主机的路径
    • xsync -av 需要分发的本机文件路径 外部主机的路径

    编写集群分发脚本

    编写一个脚本,实现调用xsync 文件名,可以快速将本地文件同步给所有外部主机,并且可以在所有主机的任意路径使用。

    1. $PATH,查看里面的环境变量 /home/atguigu/bin
    2. 这个路径天然在环境变量中,可以在该路径中编写自己的脚本代码
    3. 脚本名称为xsync, 文件名参数可以有多个
    #!/bin/bash
    
    #1. 判断参数个数
    if [ $# -lt 1 ]
    then
        echo Not Enough Arguement!
        exit;
    fi
    
    #2. 遍历集群所有机器
    for host in hadoop102 hadoop103 hadoop104
    do
        echo ====================  $host  ====================
        #3. 遍历所有目录,挨个发送
        for file in $@
        do
            #4. 判断文件是否存在
            if [ -e $file ]
                then
                    #5. 获取父目录
                    pdir=$(cd -P $(dirname $file); pwd)
    
                    #6. 获取当前文件的名称
                    fname=$(basename $file)
                    ssh $host "mkdir -p $pdir"
                    rsync -av $pdir/$fname $host:$pdir
                else
                    echo $file does not exists!
            fi
        done
    done
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31

    免密登录

    在这里插入图片描述

    1. 每个用户的家目录下都有一个.ssh文件,用来保存公钥私钥
    2. 公钥私钥生成命令 ssh-keygen -t rsa, 三次回车即可
    3. 将公钥发送给其他主机
    4. 其他主机会将其他主机发送过来的公钥保存到authorized_keys文件中
    5. 其他主机登录时,查验该主机是否在目前的公钥文件中,是的话即可免密登录。

    集群规划

    原则:老大尽可能分开,小弟尽可能多
    hdfs: 老大nn,老大2nn, 小弟dn
    yarn: 老大rm , 小弟nm
    集群的节点配置
    每台主机最多一个datanode节点和nodemanager节点,namenode、resourcemanager、secondnamenode这三个节点为了负载均衡,分别分布在不同主机。

    五个重要文件

    在/etc路径下,在jar包中有与之对应的默认配置文件default.xml

    • core-default.xml ->core-site.xml
    • hdfs-default.xml -> hdfs-site.xml
    • yarn-default.xml -> yarn-site.xml
    • mapred-default.xml -> mapred-site.xml
    • workers:配置datanode节点的主机
    1. core-site文件
      • fs.defaultFs:文件系统参数
        • 协议更改为hdfs
        • NameNode节点的位置hadoop102
        • 端口号为8020
      • hadoop.tem.dir:指定数据的存储目录
      • hadoop.http.staticuser.user: 配置网页登录使用的静态用户
    2. hdfs-site文件
      • dfs.namenode.http-address:nn web端访问地址
      • dfs.namenode.secondary.http-address: 2nn web端访问地址
    3. yarn-site文件
      • yarn.nodemanager.aux-service: 指定MR走shuffle
      • yarn.resourcemanager.hostname: 指定RM节点的位置
    4. MapReduce-site文件
      • mapreduce.framework.name:指定MapReduce跑在yarn上
    5. workers DataNode节点配置:配置数据库节点在哪些主机。

    启动集群

    1. 格式化
    2. start-dfs.sh: 启动hdfs
    3. 单点启动 hdfs --daemon start datanode
    4. hadoop103:8088/cluster:查看hadoop集群任务运行情况
    5. 配置历史服务器在102上,内部端口号为10020,外部端口号为19888
    6. 访问历史服务器方式hadoop102:19888/jobhistory
    7. 开启日志聚集功能,方便查看日志

    集群的启动方式

    • 群启:按模块启动
      • start/stop-dfs.sh 102
      • start/stop-yarn.sh 103
    • 单启:按组件启动
      • hdfs --daemon start/stop namenode/datanode/secondarynamenode
      • yarn --daemon start/stop resourcemanager/ nodemanager
      • mapred --daemon start/stop
    • 编写脚本实现一次性启动/关闭
    #!/bin/bash
    
    if [ $# -lt 1 ]
    then
        echo "No Args Input..."
        exit ;
    fi
    
    case $1 in
    "start")
            echo " ============= 启动 hadoop集群 ================"
    
            echo " --------------- 启动 hdfs ---------------"
            ssh hadoop102 "/opt/module/hadoop-3.3.4/sbin/start-dfs.sh"
            echo " --------------- 启动 yarn ---------------"
            ssh hadoop103 "/opt/module/hadoop-3.3.4/sbin/start-yarn.sh"
            echo " --------------- 启动 historyserver ---------------"
            ssh hadoop102 "/opt/module/hadoop-3.3.4/bin/mapred --daemon start historyserver"
    ;;
    "stop")
            echo " ============== 关闭 hadoop集群 ================"
    
            echo " --------------- 关闭 historyserver ---------------"
            ssh hadoop102 "/opt/module/hadoop-3.3.4/bin/mapred --daemon stop historyserver"
            echo " --------------- 关闭 yarn ---------------"
            ssh hadoop103 "/opt/module/hadoop-3.3.4/sbin/stop-yarn.sh"
            echo " --------------- 关闭 hdfs ---------------"
            ssh hadoop102 "/opt/module/hadoop-3.3.4/sbin/stop-dfs.sh"
    ;;
    *)
        echo "Input Args Error..."
    ;;
    esac
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
  • 相关阅读:
    【2018NOIP普及组】T4:对称二叉树 试题解析
    瑞吉外卖08-文件上传下载
    JSTL标签库
    通过javabean生成springboot可用的yml
    408王道计算机网络强化——数据链路层
    ChatGPT辅助课题申报书研究背景部分的写作全过程指南
    OpenCV 02(色彩空间)
    如何在C#中解析Excel公式
    IVariantArray的注意事项:AE 调用GP工具方法介绍及常见错误“对 COM 组件的调用返回了错误 HRESULTE_FAIL
    【PyTorch基础教程30】DSSM双塔模型代码解析
  • 原文地址:https://blog.csdn.net/qq_44273739/article/details/132635086