• 2020-10-08


    Haddop安装:建议使用JDK 1.8.11 建议使用Hadoop 2.7.3
    拖入安装包:
    tar -zxvf hadoop-2.6.0-cdh5.14.2.tar.gz
    mv hadoop-2.6.0-cdh5.14.2 /opt/hadoop
    rm -rf 删除安装包
    修改主机名字:
    hostnamectl set-hostname 名字
    hostname查询名字
    配置环境变量:vi /etc/profile
    在jdk配置导入三条后加上以下:注意是加上:
    export HADOOP_HOME=/opt/hadoop
    export HADOOP_MAPRED_HOME= H A D O O P H O M E e x p o r t H A D O O P C O M M O N H O M E = HADOOP_HOME export HADOOP_COMMON_HOME= HADOOPHOMEexportHADOOPCOMMONHOME=HADOOP_HOME
    export HADOOP_HDFS_HOME= H A D O O P H O M E e x p o r t Y A R N H O M E = HADOOP_HOME export YARN_HOME= HADOOPHOMEexportYARNHOME=HADOOP_HOME
    export HADOOP_COMMON_LIB_NATIVE_DIR= H A D O O P H O M E / l i b / n a t i v e e x p o r t H A D O O P I N S T A L L = HADOOP_HOME/lib/native export HADOOP_INSTALL= HADOOPHOME/lib/nativeexportHADOOPINSTALL=HADOOP_HOME
    PATH= J A V A H O M E / b i n : JAVA_HOME/bin: JAVAHOME/bin:JAVA_HOME/jre/bin: H A D O O P H O M E / b i n : HADOOP_HOME/bin: HADOOPHOME/bin:HADOOP_HOME/sbin:$PATH
    export PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin (当前目录下echo P A T H ) 要在 H a d o o p 命令行在外面输入(这个命令是输出当前命令行的地址): e c h o P A T H e x p o r t P A T H = / u s r / l o c a l / s b i n : / u s r / l o c a l / b i n : / u s r / s b i n : / u s r / b i n : / r o o t / b i n 在最后添加 h a d o o p h o m e 的 b i n 和 s b i n (两个) P A T H = P A T H e x p o r t P A T H = / u s r / l o c a l / s b i n : / u s r / l o c a l / b i n : / u s r / s b i n : / u s r / b i n : / r o o t / b i n 在最后添加 h a d o o p _ h o m e 的 b i n 和 s b i n (两个) P A T H = P A T H e x p o r t P A T H / ˉ u s r / l o c a l / s b i n : / u s r / l o c a l / b i n : / u s r / s b i n : / u s r / b i n : / r o o t / b i n 在最后添加 h a d o o p h o m e 的 b i n 和 s b i n (两个) P A T H J ˉ A V A _ H O M E / b i n : J A V A H O M E / j r e / b i n : J A V A _ H O M E / j r e / b i n : J A V A H O M E / j r e / b i n : H A D O O P _ H O M E / b i n : H A D O O P H O M E / s b i n : H A D O O P _ H O M E / s b i n : H A D O O P H O M E / s b i n : P A T H !!! e x p o r t P A T H = J A V A H O M E / b i n : J A V A _ H O M E / b i n : J A V A H O M E / b i n : J A V A _ H O M E / j r e / b i n : H A D O O P H O M E / b i n : H A D O O P _ H O M E / b i n : H A D O O P H O M E / b i n : H A D O O P _ H O M E / s b i n : PATH) 要在Hadoop命令行在外面输入(这个命令是输出当前命令行的地址):echo P A T H e x p o r t P A T H = / u s r / l o c a l / s b i n : / u s r / l o c a l / b i n : / u s r / s b i n : / u s r / b i n : / r o o t / b i n 在 最 后 添 加 h a d o o p h o m e 的 b i n 和 s b i n ( 两 个 ) P A T H = PATH export PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin 在最后添加hadoop\_home的bin和sbin(两个) PATH= PATHexportPATH\=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin在最后添加hadoophome的bin和sbin(两个)PATH\=JAVA\_HOME/bin: J A V A H O M E / j r e / b i n : JAVA\_HOME/jre/bin: JAVAHOME/jre/bin:HADOOP\_HOME/bin: H A D O O P H O M E / s b i n : HADOOP\_HOME/sbin: HADOOPHOME/sbin:PATH !!!export PATH= J A V A H O M E / b i n : JAVA\_HOME/bin: JAVAHOME/bin:JAVA\_HOME/jre/bin: H A D O O P H O M E / b i n : HADOOP\_HOME/bin: HADOOPHOME/bin:HADOOP\_HOME/sbin: PATH)要在Hadoop命令行在外面输入(这个命令是输出当前命令行的地址):echoPATHexportPATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin在最后添加hadoophomebinsbin(两个)PATH=PATHexportPATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin在最后添加hadoop_homebinsbin(两个)PATH=PATHexportPATH/ˉusr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin在最后添加hadoophomebinsbin(两个)PATHJˉAVA_HOME/bin:JAVAHOME/jre/bin:JAVA_HOME/jre/bin:JAVAHOME/jre/bin:HADOOP_HOME/bin:HADOOPHOME/sbin:HADOOP_HOME/sbin:HADOOPHOME/sbin:PATH!!!exportPATH=JAVAHOME/bin:JAVA_HOME/bin:JAVAHOME/bin:JAVA_HOME/jre/bin:HADOOPHOME/bin:HADOOP_HOME/bin:HADOOPHOME/bin:HADOOP_HOME/sbin:PATH
    增加东西的这个path要一直放在最下面 否则查不到java hadoop版本
    此时jps命令有效 可以输入jps查看各种进程
    source /etc/profile
    此时 java -version 查看java版本
    hadoop version 查看Hadoop版本

    进入hadoop/etc/hadoop下:
    修改Core-site.xml:

    fs.defaultFS
    hdfs://192.168.237.101:9000

    hadoop.tmp.dir
    /opt/hadoop/tmp

    hadoop.proxyuser.root.hosts

    hadoop.proxyuser.root.groups

    hadoop.native.lib
    false
    Should native hadoop libraries, if present, be used.

    修改hdfs-site.xml:

    dfs.replication
    1

    dfs.namenode.secondary.http-address
    192.168.237.101:50090

    修改hadoop-env.sh:
    在export JAVA_HOME=${JAVA_HOME} 25行这一行下面添加:
    export JAVA_HOME=/opt/java8
    修改 mapred-site.xml:
    先改名mv mapred-site.xml.template mapred-site.xml
    再修改:

    mapreduce.framework.name
    yarn

    mapreduce.jobhistory.address
    192.168.237.101:10020

    mapreduce.jobhistory.webapp.address
    192.168.237.101:19888

    修改yarn-site.xml:

    yarn.resourcemanager.hostname hadoop01 yarn.nodemanager.aux-services mapreduce_shuffle yarn.nodemanager.aux-services.mapreduce.shuffle.class org.apache.hadoop.mapred.ShuffleHandler yarn.log-aggregation-enable true yarn.log-aggregation.retain-seconds 604800 修改slaves文件设置为当前主机名:Hadoop001 hadoop version 查看版本

    tar -xvf hadoop-native-64-2.6.0.tar -C /opt/hadoop/lib/native/ 不是-zxvf
    cd lib/native
    cp * …/ (就是lib里面也要有一份)
    rm -rf tmp
    rm -rf logs
    hadoop namenode -format
    start-all.sh 开5个进程
    http://192.168.56.137:50070 HDFS页面
    http://192.168.56.137:8088 YARN的管理界面
    http://192.168.56.126:19888/ JobHistory (mr-jobhistory-daemon.sh start historyserver)

    增加互信:
    ssh-keygen 一直回车
    cat ~/.ssh/id_rsa.pub > ~/.ssh/authorized_keys
    或者cat /root/.ssh/id_rsa.pub > /root/.ssh/authorized_keys
    测试互信:ssh 主机名/ip exit退出连接

    免密登录:ssh-copy-id -i ~/.ssh/id_rsa.pub root@ip 接着yes
    ssh 主机名/ip 即可免密登录

    开始格式化,在hadoop命令行下: 先rm -rf logs 和tmp 重要!!!
    Hdfs namenode –format

    如果运行发现有节点掉了 进logs看日志 不行的话删logs 和tmp 格式化 hdfs namenode –format在运行
    启动hadoop:start-all.sh stop-all.sh
    启动hdfs:namenode,secondaryNamenode和datenode
    start-dfs.sh stop-dfs.sh
    启动yarn
    start-yarn.sh stop-yarn.sh
    hdfs单独:
    hadoop-daemons.sh start namenode
    hadoop-daemons.sh start datanode
    hadoop-daemons.sh start SecondaryNameNode
    yarn单独:
    yarn-daemons.sh start nodemanager
    yarn-daemon.sh start resourcemanager
    如果进程自己掉 看日志
    启动historyserver
    mr-historyserver-dameon.sh start /stop historyserver
    jps which jps(没找到命令 就是环境变量配置有关系)

  • 相关阅读:
    SSM花艺商城系统毕业设计-附源码171536
    java装饰器设计模式
    python接口自动化测试
    Mysql 和 Redis 数据如何保持一致
    Mac 超好用的工具推荐
    UE TransformVector 学习笔记
    Gin 笔记(04)— 自定义 HTTP 配置、使用 HTTP 方法、自定义请求 url 不存在时的返回值、自定义重定向
    mysql中的三大日志
    spring5(二):IOC容器概述
    R语言表与因子(详细知识点,深入知识点后续会补充!)
  • 原文地址:https://blog.csdn.net/iijik55/article/details/126325555