伪集群适用于测试使用,在实际工作中很常用,以前都是用2.x版本,现在改用3.x版本了,安装步骤记录一下。
java 用的:jdk-8u321-linux-x64.tar.gz //请自行下载
hadoop用的: hadoop-3.2.3.tar.gz //请自行去官网下载hadoop官网
hadoop-3.2.3 对应的开发文档地址:document

下载之后自行解压即可
打开 /env/profile 按照如下格式配置环境变量,路径请按照自己的解压目录修改即可
#hadoop env
export HADOOP_HOME=/soft/hadoop/hadoop-3.2.3
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
#java env
export JAVA_HOME=/soft/jdk/jdk1.8.0_321
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
vim /etc/hostname
我的hostname 为master
vim /soft/hadoop/hadoop-3.2.3/etc/hadoop/hadoop-env.sh //请改成自己的解压位置
文件中加入: export JAVA_HOME=/soft/jdk/jdk1.8.0_321
进入目录:cd /soft/hadoop/hadoop-3.2.3/etc/hadoop

workers中内容清空,加入你的主机名,在这里我加的是master
fs.defaultFS
hdfs://master:8020
hadoop.tmp.dir
/soft/hadoop/data
dfs.replication
1
dfs.permissions.enabled
false
dfs.namenode.http-address
master:50070
dfs.namenode.secondary.http-address
master:50071
yarn.nodemanager.aux-services
mapreduce_shuffle
yarn.resourcemanager.hostname
master
yarn.application.classpath
/soft/hadoop/hadoop-3.2.3/etc/hadoop:/soft/hadoop/hadoop-3.2.3/share/hadoop/common/lib/*:/soft/hadoop/hadoop-3.2.3/share/hadoop/common/*:/soft/hadoop/hadoop-3.2.3/share/hadoop/hdfs:/soft/hadoop/hadoop-3.2.3/share/hadoop/hdfs/lib/*:/soft/hadoop/hadoop-3.2.3/share/hadoop/hdfs/*:/soft/hadoop/hadoop-3.2.3/share/hadoop/mapreduce/lib/*:/soft/hadoop/hadoop-3.2.3/share/hadoop/mapreduce/*:/soft/hadoop/hadoop-3.2.3/share/hadoop/yarn:/soft/hadoop/hadoop-3.2.3/share/hadoop/yarn/lib/*:/soft/hadoop/hadoop-3.2.3/share/hadoop/yarn/*
yarn.log-aggregation-enable
true
yarn.log.server.url
http://master:19888/jobhistory/logs
yarn.log-aggregation-seconds
604800
关于yarna.application.classpath的值看下图:

mapreduce.framework.name
yarn
mapreduce.jobhistory.address
master:10020
mapreduce.jobhistory.webapp.address
master:19888
hadoop新版本默认以root用户启动会出错的,然而大多数时候我们安装的时候习惯用root,毕竟时自己的测试机器。 所以我就是以root用户安装启动的,那么则需要添加如下配置以支持root启动。
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root
hdfs namenode -format
start-all.sh //也可以:start-dfs.sh 和start-yarn.sh 分别启动,start-all.sh是一起启动。


上面两个都能打开表示安装成功。
window访问的时候记得修改windows中 hosts文件 比如我的就是:192.168.39.128 master