• Hadoop依赖环境配置与安装部署


    什么是Hadoop

      Hadoop是一个分布式系统基础架构, 是一个存储系统+计算框架的软件框架。主要解决海量数据存储与计算的问题,是大数据技术中的基石。Hadoop以一种可靠、高效、可伸缩的方式进行数据处理,用户可以在不了解分布式底层细节的情况下,开发分布式程序,用户可以轻松地在Hadoop上开发和运行处理海量数据的应用程序。

    一、Hadoop依赖环境配置

    1.1 设置静态IP地址

    之所以设置静态IP是因为当我们连上不同的网络时,ip总是会发生变化,因为dhcp服务会为我们分配一个空闲的ip地址,所以静态ip解决的问题就是为了把ip地址固定下来

    • 首先查看网关,打开VMware,编辑>>虚拟网络编辑器。
      在这里插入图片描述
    • 打开NAT设置。
      在这里插入图片描述
    • 截图保存该页面,方便后面设置。
      在这里插入图片描述
    • 修改IP的配置文件
    cd /etc/sysconfig/network-scripts/       //进入到如下目录
    vim ifcfg-ens33                 //编辑该文件
    
    • 1
    • 2

    进入以后修改为如下内容:
    在这里插入图片描述

    修改内容如下:
    BOOTPROTO=static 
    ONBOOT=yes
    IPADDR=192.168.xx.110      //xx查看自己之前的截图内容
    GATEWAY=192.168.xx.2
    NETMASK=255.255.255.0
    DNS1=114.114.114.114
    DNS2=8.8.8.8
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    1.2 重启网络

    重启网络的命令:service network restart

    1.3 再克隆两台服务器

    • 步骤如下图
      在这里插入图片描述
      在这里插入图片描述

    • 再克隆一台
      在这里插入图片描述

    1.4 修改主机名

    克隆完虚拟机后,在MobaXterm中分布修改三台虚拟机的名称。分别输入如下命令:

    hostnamectl set-hostname 'hadoop01'
    hostnamectl set-hostname 'hadoop02'
    hostnamectl set-hostname 'hadoop03'
    
    • 1
    • 2
    • 3

    1.5 安装JDK

    输入命令:rpm tar.gz rpm -ivh XXX.rpm

    在这里插入图片描述

    1.6 配置环境变量

    输入命令:vim /etc/profile,进入以后添加如下内容:

    export JAVA_HOME=/opt/module/jdk1.8.0_212
    export PATH=$PATH:$JAVA_HOME/bin
    
    • 1
    • 2

    在这里插入图片描述

    1.7 关闭防火墙

    首先临时关闭防火墙,输入命令:systemctl stop firewalld
    然后永久关闭防火墙( 只能先临时关闭,才能永久关闭),输入命令:systemctl disable firewalld
    在这里插入图片描述
    可以查看防火墙是否关闭:systemctl status firewalld

    1.8 服务器之间互传资料

    scp -r /opt/module/xxx 192.168.70.120:/opt/module
    scp -r /opt/module/xxx hadoop03:/opt/module

    1.9 做一个host印射

    输入命令进入hosts映射文件:vim /etc/hosts
    修改内容如下(三台虚拟机一样):
    在这里插入图片描述

    1.10 免密传输

    生成各自的私钥与公钥:ssh-keygen
    把生成的公钥给别人:ssh-copy-id hadoop01
    			      ssh-copy-id hadoop02
    				  ssh-copy-id hadoop03
    
    • 1
    • 2
    • 3
    • 4

    三台虚拟机同时输入:
    在这里插入图片描述

    二、Hadoop安装部署

    2.1 解压hadoop的tar包

    输入如下命令:tar -zxvf hadoop-3.1.3.tar.gz -C /opt/module/

    2.2 切换到配置文件目录

    输入如下命令:cd /opt/module/hadoop-3.1.3/etc/hadoop
    在这里插入图片描述

    2.3 修改配置文件

    1. 第一个配置文件,修改hadoop-env.sh,修改hadoop的环境依赖JDK:vim hadoop-env.sh,添加jdk的环境变量。
      修改内容如下:
      在这里插入图片描述

    2. 第二个配置文件,输入命令:vim core-site.xml,在中添加如下内容:

    <!-- 指定NameNode的地址 -->
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://hadoop01:9000</value>
    </property>
    <!-- 指定hadoop数据的存储目录 -->
        <property>
            <name>hadoop.tmp.dir</name>
            <value>/opt/module/hadoop-3.1.3/data</value>
    </property>
    
    <!-- 配置HDFS网页登录使用的静态用户为root -->
        <property>
            <name>hadoop.http.staticuser.user</name>
            <value>root</value>
    </property>
    
    <!-- 配置该root(superUser)允许通过代理访问的主机节点 -->
        <property>
            <name>hadoop.proxyuser.root.hosts</name>
            <value>*</value>
    </property>
    <!-- 配置该root(superUser)允许通过代理用户所属组 -->
        <property>
            <name>hadoop.proxyuser.root.groups</name>
            <value>*</value>
    </property>
    <!-- 配置该root(superUser)允许通过代理的用户-->
        <property>
            <name>hadoop.proxyuser.root.groups</name>
            <value>*</value>
    </property>
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    1. 第三个配置文件,输入命令:vim hdfs-site.xml,在中添加如下内容:
    <!-- nn web端访问地址-->
    	<property>
            <name>dfs.namenode.http-address</name>
            <value>hadoop01:50070</value>
        </property>
    	<!-- 2nn web端访问地址-->
        <property>
            <name>dfs.namenode.secondary.http-address</name>
            <value>hadoop01:50090</value>
    </property>
    <!--副本数的配置-->
        <property>
        <name>dfs.replication</name>
            <value>2</value>
    </property>
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    1. 第四个配置文件,输入命令:vim yarn-site.xml,在中添加如下内容:
    <!-- 指定MR走shuffle -->
        <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
    </property>
    <!-- 指定ResourceManager的地址-->
        <property>
            <name>yarn.resourcemanager.hostname</name>
            <value>hadoop01</value>
    </property>
    <!-- 环境变量的继承 -->
        <property>
            <name>yarn.nodemanager.env-whitelist</name>
            <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
    </property>
    <!-- yarn容器允许分配的最大最小内存 -->
        <property>
            <name>yarn.scheduler.minimum-allocation-mb</name>
            <value>512</value>
        </property>
        <property>
            <name>yarn.scheduler.maximum-allocation-mb</name>
            <value>2048</value>
    </property>
    <!-- yarn容器允许管理的物理内存大小 -->
        <property>
            <name>yarn.nodemanager.resource.memory-mb</name>
            <value>2048</value>
    </property>
    <!-- 关闭yarn对物理内存和虚拟内存的限制检查 -->
        <property>
            <name>yarn.nodemanager.pmem-check-enabled</name>
            <value>false</value>
        </property>
        <property>
            <name>yarn.nodemanager.vmem-check-enabled</name>
            <value>false</value>
        </property>
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    1. 第五个配置文件,输入命令:vim mapred-site.xml,在中添加如下内容:
    	<!-- 指定MapReduce程序运行在Yarn上 -->
        <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property>
    
    • 1
    • 2
    • 3
    • 4
    • 5
    1. 第六个配置文件,输入命令:vim workers,添加如下内容:
      在这里插入图片描述

    2.4 分发到其他节点

    scp -r /opt/module/hadoop-3.1.3 hadoop02:/opt/module/
    scp -r /opt/module/hadoop-3.1.3 hadoop03:/opt/module/

    2.5 初始化Hadoop集群

    hadoop namenode -format

    2.6 强制使用root启动hadoop集群

    vim /etc/profile

    2.7 启动集群

    start-dfs.sh
    start-yarn.sh
    在这里插入图片描述

    2.8 输入命令jps,完成Hadoop的搭建

    在这里插入图片描述

  • 相关阅读:
    Servlet | HttpServlet源码分析、web站点的欢迎页面
    重修SpringMVC(一)
    async-validator 源码学习笔记(三):rule
    什么是埃及COC认证?埃及COC认证是什么意思?
    C/C++ 进阶(4)二叉搜索树
    linux——(5 部分软件安装)
    【python编程从入门到实践】P1 搭建python编程环境
    Layui快速入门之第八节 表格渲染与属性的使用
    MaTiJi - MT2073 - 上传头像
    CDATA 解决xml 大于小于的转换问题
  • 原文地址:https://blog.csdn.net/qq_55930097/article/details/132619789