• Hue在大数据生态圈的集成


    1. 写在前面

            工欲善其事,必先利其器,网上教程往往让你安装一半丈二和尚摸不着头脑

            其他方法安装遇到错误亦可能可在本文的思路中找到答案

            本文安装环境CentOS 7

            安装目录  /export/server

            软件包存放位置 /export/software

            已安装好Hadoop3.3.2、Hive3.1.2、Kafka2.12-3.2.1等,可查看专栏其他文章

    2. hue可视化

            hue在大数据生态圈的可视化功能的方便性,不用多言,下面开始集成各大组件

            未安装hue的小伙伴可以查看教小白白Hue安装部署_不图安逸的小码农的博客-CSDN博客

    3. HDFS集成

    3.1 HDFS方面

    1)node1上core-site.xml修改

    1. #core-site.xml路径
    2. cd /export/server/hadoop-3.3.2/etc/hadoop/
    3. #这是系统编辑器,我更习惯notepad++编辑
    4. vim core-site.xml

    notepad++如何连接编辑参考此文内容教小白30分钟实现分库分表_不图安逸的小码农的博客-CSDN博客

    增加以下内容

    1. <property>
    2. <name>hadoop.proxyuser.root.hostsname>
    3. <value>*value>
    4. property>
    5. <property>
    6. <name>hadoop.proxyuser.root.groupsname>
    7. <value>*value>
    8. property>
    1. #将node1配置好的core-site.xml复制给node2\node3
    2. scp -r core-site.xml node2:/export/server/hadoop-3.3.2/etc/hadoop/
    3. scp -r core-site.xml node3:/export/server/hadoop-3.3.2/etc/hadoop/

    2)node1上hdfs-site.xml修改

    1. #hdfs-site.xml路径
    2. cd /export/server/hadoop-3.3.2/etc/hadoop/
    3. #这是系统编辑器,我更习惯notepad++编辑
    4. vim hdsf-site.xml

    增加以下内容

    1. <property>
    2. <name>dfs.webhdfs.enabledname>
    3. <value>truevalue>
    4. property>
    1. #将node1配置好的hdfs-site.xml复制给node2\node3
    2. scp -r hdfs-site.xml node2:/export/server/hadoop-3.3.2/etc/hadoop/
    3. scp -r hdfs-site.xml node3:/export/server/hadoop-3.3.2/etc/hadoop/

    3.2 HUE方面

    修改hue.ini

    1. #hue.ini修改路径
    2. cd /export/server/hue-3.9.0-cdh5.14.0/desktop/conf/
    3. #推荐notepad++,原生vi亦可
    4. vim hue.ini

    搜索hdfs_clusters

    修改成为以下内容

    1. [hadoop]
    2. # Configuration for HDFS NameNode
    3. # ------------------------------------------------------------------------
    4. [[hdfs_clusters]]
    5. # HA support by using HttpFs
    6. [[[default]]]
    7. # Enter the filesystem uri
    8. fs_defaultfs=hdfs://node1:9000
    9. webhdfs_url=http://node1:9870/webhdfs/v1
    10. # Directory of the Hadoop configuration
    11. # hadoop_conf_dir=$HADOOP_CONF_DIR when set or '/etc/hadoop/conf'
    12. hadoop_hdfs_home= /export/server/hadoop-3.3.2
    13. hadoop_bin=/export/server/hadoop-3.3.2/bin
    14. hadoop_conf_dir=/export/server/hadoop-3.3.2/etc/hadoop
    15. # Configuration for YARN (MR2)
    16. # ------------------------------------------------------------------------

     重要提示:注意两个端口号9000和9870

    关于9000:在前面Hadoop安装中core-site.xml中,之前设置为8020,现改为9000,即一致即可,ps:20221217记录:建议一直8020,会乱,吸取教训再改为8020

     关于9870:hdfs 2.x   默认50070。hdfs  3.X   默认9870,查看网站是用哪个端口号,即写哪个

     

     HDFS集成完毕

    3.3 重启HDFS、HUE

    1. #启动hdfs
    2. start-dfs.sh
    3. #启动HUE
    4. cd /export/server/hue-3.9.0-cdh5.14.0/
    5. build/env/bin/supervisor

    4. YARN集成

    4.1 YARN方面

    1. #yarn-site.xml路径
    2. cd /export/server/hadoop-3.3.2/etc/hadoop/
    3. #这是系统编辑器,我更习惯notepad++编辑
    4. vim yarn-site.xml

     增加以下内容(根据本人专栏下Hadoop文章安装的话,此处已经配置,查看一下即可)

    1. <property> ##是否启用日志聚集功能。
    2. <name>yarn.log-aggregation-enablename>
    3. <value>truevalue>
    4. property>
    5. <property> ##设置日志保留时间,单位是秒。
    6. <name>yarn.log-aggregation.retain-secondsname>
    7. <value>604800value>
    8. property>
    1. #将node1配置好的yarn-site.xml复制给node2\node3(之前Hadoop安装已有可不做)
    2. scp -r yarn-site.xml node2:/export/server/hadoop-3.3.2/etc/hadoop/
    3. scp -r yarn-site.xml node3:/export/server/hadoop-3.3.2/etc/hadoop/

    4.2 HUE方面

    修改hue.ini

    1. #hue.ini修改路径
    2. cd /export/server/hue-3.9.0-cdh5.14.0/desktop/conf/
    3. #推荐notepad++,原生vi亦可
    4. vim hue.ini

    搜索yarn_clusters

    修改成为以下内容

    1. [[yarn_clusters]]
    2. [[[default]]]
    3. # Enter the host on which you are running the ResourceManager
    4. resourcemanager_host=node1
    5. # The port where the ResourceManager IPC listens on
    6. resourcemanager_port=8032
    7. # Whether to submit jobs to this cluster
    8. submit_to=True
    9. # URL of the ResourceManager API
    10. resourcemanager_api_url=http://node1:8088
    11. # URL of the HistoryServer API
    12. history_server_api_url=http://node1:19888

     4.3  重启yarn 、hue

    1. start-yarn.sh
    2. build/env/bin/supervisor

  • 相关阅读:
    【数仓日常踩坑】记录一次特殊符号引发数据异常的排查思路
    每日一练 | 华为认证真题练习Day119
    Yii2 创建定时任务
    机器内存充足,Java程序却报native内存OOM的问题记录
    部署jar包windows服务工具
    java街边熟食店卤菜网上商城系统springboot+vue
    码蹄集需要频繁登录?如何做到“一劳永逸”——码蹄集只登录一次久久不掉线的教程
    解决Java中https请求接口报错问题
    Spring中拦截器重复注册的问题排查
    Qt调用工业相机之海康威视相机SDK配置(完整版)
  • 原文地址:https://blog.csdn.net/u010763324/article/details/126911777