问题一
在hdfs页面对文件进行删除操作时,删除失败且报错。
当前用户没有权限。

解决方法:进入/opt/module/hadoop-3.1.3/etc/hadoop中,编辑core-site.xml文件
在文件中加入:
<!-- 配置HDFS网页登录使用的静态用户为“你想要进行删除操作的用户名” -->
<property>
<name>hadoop.http.staticuser.user</name>
<value>你的用户名</value>
</property>
重新关闭再启动集群即可。
问题二
将电脑文件拖拽入xshell中(预打算放入/opt/software中)传输失败

失败原因:文件修改权限不够
解决方法:
修改文件权限

然后再将文件拖入即可。
问题三

启动和关闭集群时出现了一系列问题,原本不需要多次输入密码,结果不知道修改了哪里的权限导致有些集群启动需要输入密码,查看集群状态也需要输入密码。而且有时候是只有hadoo102需要输入密码,hadoop103和104不用。
甚至报错,集群也不能正常启动和关闭
hadoop102: Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password).
hadoop104: Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password).
猜想这应该是权限问题和免密设置问题。
先重新进行ssh免密登录配置
下列操作在hadoop102,103,104上各进行一遍
步骤一
步骤二
cat id_rsa.pub >> authorized_keys
ssh-copy-id hadoop102
ssh-copy-id hadoop103
ssh-copy-id hadoop104
步骤三:切换成root用户重复步骤一和二
接下来就是要修改权限
这里的hadoop代表的是当前用户名
修改权限
chown -R hadoop:hadoop /home/hadoop
chmod 700 /home/hadoop
chmod 700 /home/hadoop/.ssh
chmod 644 /home/hadoop/.ssh/authorized_keys
chmod 600 /home/hadoop/.ssh/id_rsa