tar -zxvf jdk-8u221-linux-x64.tar.gz -C /opt/server/
安装vim即可;
yum install -y vim
vim /etc/profile
按“o”进入编辑模式;
- #JDK环境变量
- export JAVA_HOME=/opt/server/jdk1.8.0_221
- export PATH=${JAVA_HOME}/bin:$PATH
编辑完内容后,“esc”-->“:”-->"wq"-->回车,执行保存并退出。
source /etc/profile
vim /etc/hosts
点"i"或者"o"进入编辑模式;
编辑完后,点"Esc"-->":"-->"wq",回车,保存退出。
生成公钥和私钥;(一直点下去即可)
ssh-keygen -t rsa
- cd ~/.ssh
-
- cat id_rsa.pub >> authorized_keys
-
- chmod 600 authorized_keys
- # 本机公钥拷贝到102服务器
- ssh-copy-id hadoop102
-
- # 回车,确认102密码后生效
vim hadoop-env.sh
vim core-site.xml
-
-
-
fs.defaultFS -
hdfs://server:8020 -
-
-
-
hadoop.tmp.dir -
/home/hadoop/data -
vim hdfs-site.xml
-
-
-
dfs.replication -
1 -
vim workers
server
- # 查看防火墙状态
- sudo firewall-cmd --state
- # 关闭防火墙:
- sudo systemctl stop firewalld
- # 禁止开机启动
- sudo systemctl disable firewalld
进入目录“/opt/server/hadoop-3.3.1/sbin”,编辑start-dfs.sh、stop-dfs.sh,在顶部加入以下内容;
- HDFS_DATANODE_USER=root
- HDFS_DATANODE_SECURE_USER=hdfs
- HDFS_NAMENODE_USER=root
- HDFS_SECONDARYNAMENODE_USER=root
start-dfs.sh如下:
stop-dfs.sh如下:
./start-dfs.sh
启动成功;
- #Hadoop环境变量
- export HADOOP_HOME=/opt/server/hadoop-3.3.1
- export PATH=$PATH:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin;
执行“source /etc/profile”刷新,使其生效。
进入/opt/server/hadoop-3.3.1/etc/hadoop/目录;
vim mapred-site.xml
-
-
mapreduce.framework.name -
yarn -
-
-
yarn.app.mapreduce.am.env -
HADOOP_MAPRED_HOME=${HADOOP_HOME} -
-
-
mapreduce.map.env -
HADOOP_MAPRED_HOME=${HADOOP_HOME} -
-
-
mapreduce.reduce.env -
HADOOP_MAPRED_HOME=${HADOOP_HOME} -
vim yarn-site.xml
-
-
-
yarn.nodemanager.aux-services -
mapreduce_shuffle -
进入“/opt/server/hadoop-3.3.1/sbin/”目录;
- # start-yarn.sh stop-yarn.sh在两个文件顶部添加以下内容
- YARN_RESOURCEMANAGER_USER=root
- HADOOP_SECURE_DN_USER=yarn
- YARN_NODEMANAGER_USER=root
vim start-yarn.sh
vim stop-yarn.sh
进入“/opt/server/hadoop-3.3.1/sbin/”目录;
./start-yarn.sh
创建目录、上传文件失败。
这里“dr.who”表示的是在网页端访问hdfs时的默认用户名,而真实是不存在的,它的权限很小,为了保证数据安全,无法访问其他用户的数据。修改默认登录用户就可解决此处权限问题。
修改“/opt/server/hadoop-3.3.1/etc/hadoop/”目录下的core-site.xml;
添加下面属性;
-
-
-
hadoop.http.staticuser.user -
root -
重启hdfs服务即可。
创建目录成功;
原因:客户端web无法解析server域名到指定ip引起的。
解决方法:
在本地win10配置host对虚拟机地址的访问;
192.168.12.100 server