• 集群启动详解


    hadoop

    • 编写两个hadoop集群常用脚本:
    1. Hadoop集群启停脚本(包含HDFS,Yarn,Historyserver):myhadoop.sh
      1. //进入用户目录下的bin目录:
      2. cd /home/gfs/bin
      3. //创建myhadoop.sh脚本文件
      4. vim myhadoop.sh
      5. //输入以下内容
      6. #!/bin/bash
      7. if [ $# -lt 1 ]
      8. then
      9. echo "No Args Input..."
      10. exit ;
      11. fi
      12. case $1 in
      13. "start")
      14. echo " =================== 启动 hadoop集群 ==================="
      15. echo " --------------- 启动 hdfs ---------------"
      16. ssh hadoop102 "/opt/module/hadoop-3.1.3/sbin/start-dfs.sh"
      17. echo " --------------- 启动 yarn ---------------"
      18. ssh hadoop103 "/opt/module/hadoop-3.1.3/sbin/start-yarn.sh"
      19. echo " --------------- 启动 historyserver ---------------"
      20. ssh hadoop102 "/opt/module/hadoop-3.1.3/bin/mapred --daemon start historyserver"
      21. ;;
      22. "stop")
      23. echo " =================== 关闭 hadoop集群 ==================="
      24. echo " --------------- 关闭 historyserver ---------------"
      25. ssh hadoop102 "/opt/module/hadoop-3.1.3/bin/mapred --daemon stop historyserver"
      26. echo " --------------- 关闭 yarn ---------------"
      27. ssh hadoop103 "/opt/module/hadoop-3.1.3/sbin/stop-yarn.sh"
      28. echo " --------------- 关闭 hdfs ---------------"
      29. ssh hadoop102 "/opt/module/hadoop-3.1.3/sbin/stop-dfs.sh"
      30. ;;
      31. *)
      32. echo "Input Args Error..."
      33. ;;
      34. esac
      35. //保存并退出,然后赋予脚本执行权限
      36. chmod +x myhadoop.sh

    2. 查看三台服务器java进程脚本:jpsall
      1. //进入用户目录下的bin目录:
      2. cd /home/gfs/bin
      3. //创建jpsall脚本文件
      4. vim jpsall.sh
      5. //输入以下内容
      6. #!/bin/bash
      7. for host in hadoop102 hadoop103 hadoop104
      8. do
      9. echo =============== $host ===============
      10. ssh $host jps
      11. done
      12. //保存并退出,然后赋予脚本执行权限
      13. chomd +x jpsall
      14. //分发/home/gfs/bin目录,保证自定义脚本在三台服务器上都可以使用
      15. xsync /home/gfs/bin/

    • 使用以上的脚本就可以一键启动三台服务器了。

    spark

    • 众所周知spark运行环境有三种,local模式,standalone模式,yarn模式。

    local模式

    • 所谓的Local 模式,就是不需要其他任何节点资源就可以在本地执行 Spark 代码的环境,一般用于教学,调试,演示等, 之前在 IDEA 中运行代码的环境我们称之为开发环境,不太一样。
    • 启动local模式:bin/spark-shell
    • 启动成功后,可以输入网址进行web UI监控页面访问:http://hadoop102:4040
    • 提交应用:
      1. bin/spark-submit \
      2. --class org.apache.spark.examples.SparkPi \
      3. --master local[2] \
      4. ./examples/jars/spark-examples_2.12-3.0.0.jar \ 10

      ——————————

    standalone模式

    • local 本地模式毕竟只是用来进行练习演示的,真实工作中还是要将应用提交到对应的集群中去执行,这里我们来看看只使用 Spark 自身节点运行的集群模式,也就是我们所谓的独立部署(Standalone)模式。Spark 的 Standalone 模式体现了经典的master-slave 模式。集群规划:

      hadoop02hadoop03

      hadoop04

      sparkWorker  MasterWorkerWorker

      ——————

    • 修改配置文件(自己去网上找)

    • 启动集群:sbin/start-all.sh

       ________

    • 查看Master资源监控web UI界面:http://hadoop102:8080

    • 还可以配置高可用:很简单,自己去网上找

    yarn模式

    • 独立部署(Standalone)模式由 Spark 自身提供计算资源,无需其他框架提供资源。这种方式降低了和其他第三方资源框架的耦合性,独立性非常强。但是你也要记住,Spark 主要是计算框架,而不是资源调度框架,所以本身提供的资源调度并不是它的强项,所以还是和其他专业的资源调度框架集成会更靠谱一些。所以接下来我们来学习在强大的Yarn 环境下 Spark 是如何工作的(其实是因为在国内工作中,Yarn 使用的非常多)。

    • 修改配置文件(自己去网上找)

    • 本模式需要先启动HDFS和YARN集群

    • 启动集群:sbin/start-all.sh

    • 查看历史web UI界面:http://hadoop102:8088

    zookeeper

    • 安装,自己安装去
    • 修改配置,自己去查
    • zk集群启动停止脚本
      1. //进入用户目录下的bin目录:
      2. cd /home/gfs/bin
      3. //创建zk.sh脚本文件
      4. vim zk.sh
      5. //输入以下内容
      6. #!/bin/bash
      7. case $1 in
      8. "start"){
      9. for i in hadoop102 hadoop103 hadoop104
      10. do
      11. echo ---------- zookeeper $i 启动 ------------
      12. ssh $i "/opt/module/zookeeper-3.5.7/bin/zkServer.sh
      13. start"
      14. done
      15. };;
      16. "stop"){
      17. for i in hadoop102 hadoop103 hadoop104
      18. do
      19. echo ---------- zookeeper $i 停止 ------------
      20. ssh $i "/opt/module/zookeeper-3.5.7/bin/zkServer.sh
      21. stop"
      22. done
      23. };;
      24. "status"){
      25. for i in hadoop102 hadoop103 hadoop104
      26. do
      27. echo ---------- zookeeper $i 状态 ------------
      28. ssh $i "/opt/module/zookeeper-3.5.7/bin/zkServer.sh
      29. status"
      30. done
      31. };;
      32. esac
      33. //保存并退出,然后赋予脚本执行权限
      34. chomd u+x zk.sh
      35. //分发/home/gfs/bin目录,保证自定义脚本在三台服务器上都可以使用
      36. xsync /home/gfs/bin/
      37. //启动
      38. zk.sh start
      39. //停止
      40. zk.sh stop

      ————————

    hbase

    • 安装
    • 配置环境变量和修改配置文件
    • 集群分发
    • 单点启动
      1. bin/hbase-daemon.sh start master
      2. bin/hbase-daemon.sh start regionserver

      _____

    • 群起和停止

      1. bin/start-hbase.sh
      2. bin/stop-hbase.sh

      ——————

    • 查看hbase的web UI界面:http://hadoop102:16010

    • 可以配置高可用

  • 相关阅读:
    ArduPilot开源代码之H743+BMI270x2+ChibiOS配置适配
    RunnerGo UI自动化测试功能使用体验
    MobPush数智化推送,精准定位万圣节狂欢年轻一族
    Oracle 11g R2 Rman备份与恢复(二)
    如何自定义feign方法级别的超时时间
    基于SSM实现前后端分离在线考试管理系统
    [C++] 栈上存储以及堆中存储, 值引用, 类型拷贝以及拷贝构造函数, 将类分配到堆中
    C语言之回调函数(非常重要)附带回调函数版本实现整型的加减乘除四则运算
    02RabbitMQ 安装
    第27集丨为人格补钙,让心灵吸氧
  • 原文地址:https://blog.csdn.net/qq_53914420/article/details/127553739