• Hadoop大数据技术 伪分布式集群搭建快速入门教程Centos7


    Hadoop大数据技术 伪分布式集群搭建快速入门教程Centos7

    安装VMware

    创建虚拟机

    修改虚拟机IP

    vim /etc/sysconfig/network-scripts/ifcfg-eth0
    TYPE=Ethernet
    PROXY_METHOD=none
    BROWSER_ONLY=no
    ##将IP修改为静态IP
    BOOTPROTO=static
    DEFROUTE=yes
    IPV4_FAILURE_FATAL=no
    IPV6INIT=yes
    IPV6_AUTOCONF=yes
    IPV6_DEFROUTE=yes
    IPV6_FAILURE_FATAL=no
    IPV6_ADDR_GEN_MODE=stable-privacy
    NAME="System ens33"
    #UUID=1008581b-d7b1-498e-b96b-e59217a7dd1c
    DEVICE=ens33
    ##modify yes
    ONBOOT=yes
    ##设置虚拟机IP地址
    IPADDR=192.168.37.130
    NETMASK=255.255.255.0
    GATEWAY=192.168.37.2   根据虚拟机的网段设置
    DNS1=192.168.37.2
    DNS2=114.114.114.114
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24

    修改主机名

    vim /etc/sysconfig/network
    
    # Created by anaconda
    NETWORKING=yes
    HOSTNAME=master          #设置自己的主机名称
    
    • 1
    • 2
    • 3
    • 4
    • 5

    关闭防火墙

    查看防火墙住状态
    [root@master ~]# firewall-cmd –state
    显示runing则执行第三条命令
    临时关闭防火墙(重启虚拟机后,防火墙会自动启动)
    [root@master ~]# systemctl unmask firewall.service
    永久关闭防火墙(重启虚拟机后,防火墙不会开启)
    [root@master ~]# systemctl disable firewalld.service 
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    创建安装包目录和软件安装目录

    ##切换到opt目录下
    [root@master ~]# cd /opt/
    
    ##创建software 和 apps 目录,分别用于存放安装装包和应用程序
    [root@master opt]# mkdir /software 
    [root@master opt]# mkdir /apps
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    安装JDK

    ###切换到software目录下
    [root@master opt]# cd /software
    
    ##使用wget命令下载JDK
    [root@master software]# wget --no-cookies --no-check-certificate --header "Cookie:gpw_e24=http%3A%2F%2Fwww.oracle.com%2F; oraclelicense=accept-securebackup-cookie" http://download.oracle.com/otn-pub/java/jdk/8u141-b15/336fa29ff2bb4ef291e347e091f7f4a7/jdk-8u141-linux-x64.tar.gz
    ##使用tar命令解压到/opt/apps目录下
    
    [root@master software]# tar -zxvf jdk-8u141-linux-x64.tar.gz  -C /opt/apps/
    ##重命名
    [root@master software]# mv /opt/apps/jdk1.8.0_141/ /opt/apps/java8
    
    ##配置JAVA_HOME和PATH
    [root@master software]#vim /etc/profile.d/java_env.sh
    ##将一下内容写入,退出并保存
    export JAVA_HOME=/opt/apps/java8
    export PATH=$PATH:$JAVA_HOME/bin
    
    ##重新加载配置文件
    [root@master software]# source /etc/profile
    
    ##检查配置是否成功
    [root@master software]# java –version
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22

    安装Hadoop

    ###切换到software目录下
    [root@master opt]# cd /software
    
    ##使用wget命令下载Hadoop
    [root@master software]# wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-2.10.1/hadoop-2.10.1.tar.gz 
    
    ##使用tar命令解压到/opt/apps目录下
    [root@master software]#tar -zxvf hadoop-2.10.1.tar.gz  -C /opt/apps/
    
    ##重命名
    [root@master software]#mv /opt/apps/ hadoop-2.10.1/ /opt/apps/hadoop
    
    ##配置HADDOP_HOME和PATH
    [root@master software]#vim /etc/profile.d/java_env.sh
    
    ##将一下内容写入,退出并保存
    export HADOOP_HOME=/opt/apps/hadoop
    export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
    export CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath):$CLASSPATH
    
    ##重新加载配置文件
    [root@master software]# source /etc/profile
    
    ##检查配置是否成功
    [root@master software]# hadoop version
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25

    更改Hadoop配置文件

    这些配置文件都在 /opt/apps/hadoop/etc/hadoop/

    修改core-site.xml

    vim  /opt/apps/hadoop/etc/hadoop/core-site.xml
    
            
            hadoop.tmp.dir
            file:/opt/apps/hadoop/data/tmp#dfs文件目录
            location to store temporary files
        
        
            fs.defaultFS
            hdfs://192.168.37.230:9000#填写自己的IP
        
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12

    修改hadoop-env.sh

    vim /opt/apps/hadoop/etc/hadoop/hadoop-env.sh

    在这里插入图片描述

    修改hdfs-site.sh

    vim /opt/apps/hadoop/etc/hadoop/hdfs-site.sh

    
     
            dfs.replication
            1##配置副本数量,单节点设置成一个就好
        
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    修改yarn-site.sh

    vim /opt/apps/hadoop/etc/hadoop/yarn-site.sh

    
    
              yarn.nodemanager.aux-services
              mapreduce_shuffle
    
    
    yarn.resourcemanager.hostname
    master   ##配置resourcemanager的主机名称,
    
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10

    修改yarn-env.sh

    vim /opt/apps/hadoop/etc/hadoop/yarn-env.sh

    在这里插入图片描述

    修改mapred-env.sh

    vim /opt/apps/hadoop/etc/hadoop/mapred-env.sh
    在这里插入图片描述

    配置免密登录

    ##在命令行中输入 cd ~/.ssh,切换到.ssh目录下
    生成密钥
    [root@master .ssh]#ssh-keygen –t rsa
    [root@master .ssh]#ssh-copy-id 主机IP
    
    • 1
    • 2
    • 3
    • 4

    启动/关闭集群

    [root@master ~]#start-all.sh
    [root@master ~]#stop-all.sh
    
    • 1
    • 2

    查看进程

    [root@master ~]#jps
    10209 NodeManager
    9604 NameNode
    10084 ResourceManager
    10516 Jps
    9751 DataNode
    9931 SecondaryNameNode
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    网页查看

    再查看之前一定要确保关闭了防火墙
    http://192.168.37.230:8088 hdfs
    
    • 1
    • 2

    在这里插入图片描述

    http://192.168.37.230:50070 yarn
    
    • 1

    在这里插入图片描述

  • 相关阅读:
    【Linux】perf工作中最常用命令记录(包含火焰图)
    对于可变参数的处理
    Vue 3是一个错误,我们不应该再犯。
    苏州德创机器视觉工程师工作怎么样?
    spring-boot-starter和spring-boot-starter-web的关联
    RHCE第四天作业
    【集合】- ArrayList源码分析
    Servlet 学习笔记4
    Stable-diffusion WebUI API调用方法
    Zookeeper面试题大全
  • 原文地址:https://blog.csdn.net/m0_67401134/article/details/126717395