• hadoop配置回顾


    hadoop解压完成后,想一想要修改几个配置文件?

    答案是5个,分别是 core-site,hdfs-site,yarn-site,mapred-site,workers

    先修改core-site

    1. cd /opt/module/hadoop/etc/hadoop
    2. vim core-site.xml
    3. <?xml version="1.0" encoding="UTF-8"?>
    4. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
    5. <configuration>
    6. <!-- 指定NameNode的地址 -->
    7. <property>
    8. <name>fs.defaultFS</name>
    9. <value>hdfs://hadoop102:8020</value>
    10. </property>
    11. <!-- 指定hadoop数据的存储目录 -->
    12. <property>
    13. <name>hadoop.tmp.dir</name>
    14. <value>/opt/module/hadoop/data</value>
    15. </property>
    16. <!-- 配置HDFS网页登录使用的静态用户user-->
    17. <property>
    18. <name>hadoop.http.staticuser.user</name>
    19. <value>$username</value>
    20. </property>
    21. <!-- 配置该user允许通过代理访问的主机节点 -->
    22. <property>
    23. <name>hadoop.proxyuser.$username.hosts</name>
    24. <value>*</value>
    25. </property>
    26. <!-- 配置该user允许通过代理用户所属组 -->
    27. <property>
    28. <name>hadoop.proxyuser.$username.groups</name>
    29. <value>*</value>
    30. </property>
    31. <!-- 配置该user允许通过代理的用户-->
    32. <property>
    33. <name>hadoop.proxyuser.$username.users</name>
    34. <value>*</value>
    35. </property>
    36. </configuration>
    37. ---------------------------

    namenode的端口号变化

    • hadoop1.x 8020
    • Hadoop2.x 9000
    • hadoop3.0.x 9020
    • hadoop3.1.x 8020(这里示例的是3.1.x)

    hdfs-site

    vim hdfs-site.xml

    1. <?xml version="1.0" encoding="UTF-8"?>
    2. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
    3. <configuration>
    4. <!-- nn web端访问地址-->
    5. <property>
    6. <name>dfs.namenode.http-address</name>
    7. <value>hadoop102:9870</value>
    8. </property>
    9. <!-- 2nn web端访问地址-->
    10. <property>
    11. <name>dfs.namenode.secondary.http-address</name>
    12. <value>hadoop104:9868</value>
    13. </property>
    14. <!-- 测试环境指定HDFS副本的数量1 -->
    15. <property>
    16. <name>dfs.replication</name>
    17. <value>3</value>
    18. </property>
    19. </configuration>

    namenode的web端端口变化

    • 1.x和2.x 50070
    • hadoop3.x 9870

    2nnweb端端口变化

    • 1.x和2.x 50090
    • 3.x 9868

     yarn-site

    vim yarn-site.xml

    1. <?xml version="1.0" encoding="UTF-8"?>
    2. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
    3. <configuration>
    4. <!-- 指定MR走shuffle -->
    5. <property>
    6. <name>yarn.nodemanager.aux-services</name>
    7. <value>mapreduce_shuffle</value>
    8. </property>
    9. <!-- 指定ResourceManager的地址-->
    10. <property>
    11. <name>yarn.resourcemanager.hostname</name>
    12. <value>hadoop103</value>
    13. </property>
    14. <!-- 环境变量的继承 -->
    15. <property>
    16. <name>yarn.nodemanager.env-whitelist</name><value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
    17. </property>
    18. <!--yarn单个容器允许分配的最大最小内存 -->
    19. <property>
    20. <name>yarn.scheduler.minimum-allocation-mb</name>
    21. <value>512</value>
    22. </property>
    23. <property>
    24. <name>yarn.scheduler.maximum-allocation-mb</name>
    25. <value>4096</value>
    26. </property>
    27. <!-- yarn容器允许管理的物理内存大小 -->
    28. <property>
    29. <name>yarn.nodemanager.resource.memory-mb</name>
    30. <value>4096</value>
    31. </property>
    32. <!-- 关闭yarn对物理内存和虚拟内存的限制检查 -->
    33. <property>
    34. <name>yarn.nodemanager.pmem-check-enabled</name>
    35. <value>true</value>
    36. </property>
    37. <property>
    38. <name>yarn.nodemanager.vmem-check-enabled</name>
    39. <value>false</value>
    40. </property>
    41. </configuration>

    注意:这里以学习搭建为目的所以yarn单个容器允许分配的最大最小内存就默认设置为一致的了(分发了相同的文件),但是实际开发中要根据具体情况来修改!

    mapred-site

    vim mapred-site.xml
    1. "1.0" encoding="UTF-8"?>
    2. "text/xsl" href="configuration.xsl"?>
    3. <configuration>
    4. <property>
    5. <name>mapreduce.framework.namename>
    6. <value>yarnvalue>
    7. property>
    8. configuration>

    workers 

    vim workers
    1. hadoop102
    2. hadoop103
    3. hadoop104

    数一数是不是完成了五个配置的修改

    配置历史服务器

    vim mapred-site.xml
    1. <!-- 历史服务器端地址 -->
    2. <property>
    3. <name>mapreduce.jobhistory.address</name>
    4. <value>hadoop102:10020</value>
    5. </property>
    6. <!-- 历史服务器web端地址 -->
    7. <property>
    8. <name>mapreduce.jobhistory.webapp.address</name>
    9. <value>hadoop102:19888</value>
    10. </property>

    配置日志聚集

    vim yarn-site.xml
    1. <!-- 开启日志聚集功能 -->
    2. <property>
    3. <name>yarn.log-aggregation-enable</name>
    4. <value>true</value>
    5. </property>
    6. <!-- 设置日志聚集服务器地址 -->
    7. <property>
    8. <name>yarn.log.server.url</name>
    9. <value>http://hadoop102:19888/jobhistory/logs</value>
    10. </property>
    11. <!-- 设置日志保留时间为7天 -->
    12. <property>
    13. <name>yarn.log-aggregation.retain-seconds</name>
    14. <value>604800</value>
    15. </property>

    第一次启动格式化

    bin/hdfs namenode -format

    2nn改错

    登录http://hadoop104:9868​​​​​​

    发现页面空白,F12-Console发现第61行报错

    cd /opt/module/hadoop/share/hadoop/hdfs/webapps/static
    vim dfs-dust.js
    1. :
    2. set nu
    1. #找到第61行,修改返回语句为
    2. return Number(v).toLocaleString();

    修改后,若刷新仍然没有改变,清楚浏览器缓存记录,再刷新即可

    总结一下用到了哪些端口

    内部端口

    • namenode:8020
    • datanode:9864
    • 历史服务器:10020
    • 日志聚集服务器:http://hadoop102:19888/jobhistory/logs

    web端口

    • namenode:hadoop102:9870
    • 2nn:hadoop104:9868
    • 历史服务器:hadoop102:19888
    • resource manager:8088
  • 相关阅读:
    知识讲解类短视频如何定位?分享三种类型,帮你选择短视频方向
    Cookie与Session简单入门
    软考高级系统架构设计师系列之:快速掌握数据库系统核心知识点
    Unity websocket
    智能网联汽车基础软件信息安全需求分析
    Electron进程通信的另一种方式
    AOP事务处理
    TCP如何实现可靠传输、流量控制、拥塞控制
    删除不成功的免密登录重新做免密
    C# 画参数可调调幅波
  • 原文地址:https://blog.csdn.net/m0_54501766/article/details/132640130