1、着手大数据应用
2、我的环境: CentOS8
3、我的hadoop版本: 3.2.2
4、hadoop依赖jdk,本文不涉及jdk安装与配置,请自行配置
5、我的服务器ip: 192.168.1.102,配置过程看到102请更换为自己服务器的ip
1)云盘
https://pan.baidu.com/s/1m-NwgxGIpniYL7QndNPx9g密码:6326
2)其他版本
https://dlcdn.apache.org/hadoop/common/~~
1)我的路径
/opt/hadoop2)示例图
~~
0)创建用户
useradd hadoop修改密码
passwd hadoop密码使用,输入两次
hadoop说明:hadoop不支持用root操作
增加用户组
groupadd hadoop usermod -a -G hadoop hadoop切换成hadoop用户操作
su hadoop1)解压
tar zxvf hadoop说明: tab补全
2)进入配置目录
cd /opt/hadoop/hadoop-3.2.2/etc/hadoop3)打印JAVA_HOME路径并复制,配置要用到
echo $JAVA_HOME4)配置hadoop-env.sh
vi hadoop-env.sh增加配置:
export JAVA_HOME=/home/jdk/jdk1.8.0_231示例图:
5)配置yarn-env.sh
vi yarn-env.sh新增配置:
export JAVA_HOME=/home/jdk/jdk1.8.0_231说明: 新增到最后一行即可,不再截图
6)配置mapred-env.sh
vi mapred-env.sh新增配置:
export JAVA_HOME=/home/jdk/jdk1.8.0_231说明1: 新增到最后一行即可
7)配置core-site.xml
vi core-site.xml新增配置:
<property> <name>fs.defaultFSname> <value>hdfs://192.168.1.102:38020value> property> <property> <name>hadoop.tmp.dirname> <value>/opt/hadoop/hadoop-3.2.2/datavalue> property>说明:放到
标签里面 说明:ip改成自己服务器的ip
8)配置hdfs-site.xml
vi hdfs-site.xml新增配置:
<property> <name>dfs.replicationname> <value>1value> property> <property> <name>dfs.namenode.http-addressname> <value>192.168.1.102:50070value> property>说明:放到
标签里面 说明:ip改成自己服务器的ip
9)配置yarn-site.xml
vi yarn-site.xml新增配置:
<property> <name>yarn.resourcemanager.hostnamename> <value>192.168.1.102value> property> <property> <name>yarn.log-aggregation-enablename> <value>truevalue> property> <property> <name>yarn.log-aggregation.retain-secondsname> <value>86400value> property> <property> <name>yarn.nodemanager.aux-servicesname> <value>mapreduce_shufflevalue> property>10)配置mapred-site.xml
vi mapred-site.xml新增配置:
<property> <name>mapreduce.jobhistory.webapp.addressname> <value>192.168.1.102:19888value> property> <property> <name>mapreduce.framework.namename> <value>yarnvalue> property>说明:到此hadoop自身配置完成,还需要系统配置
说明: hadoop配置完后,请留意端口;已使用端口:
jobhistory: 19888 namenode: 50070 hadoop服务端: 38020说明:请保证端口没有被占用,如果被占用,请自行更换
说明: 可使用命令查看是否被占用
netstat -anp | grep 3808211)加入到环境变量
vi ~/.bashrc最后一行加入配置:
export HADOOP_HOME=/opt/hadoop/hadoop-3.2.2 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin配置生效:
source ~/.bashrc12)初始化namenode
/opt/hadoop/hadoop-3.2.2/bin/hdfs namenode -format13)启动namenode
hdfs --daemon start namenode14)启动datanode
hdfs --daemon start datanode15)查看是否启动成功
jsp成功示例:
~~