# spark.deploy.recoveryMode 指定HA模式 基于Zookeeper实现
# 指定Zookeeper的连接地址
# 指定在Zookeeper中注册临时节点的路径
SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=node1:2181,node2:2181,node3:2181 -Dspark.deploy.zookeeper.dir=/spark-ha"
cd $SPARK_HOME/conf
scp spark-env.sh node2:`pwd`/
scp spark-env.sh node3:`pwd`/
sbin/stop-all.sh
# 在node1上 启动一个master 和全部worker
sbin/start-all.sh
# node2上启动一个备用的master进程
sbin/start-master.sh
node1网址:http://node1:8081/ 因为zk占用8080,所以顺延到8081端口
node2网址:http://node2:8082/ 因为zk占用8080,而worker占用8081,所以就顺延到8082了,具体可以在日志中查看
显示状态为:STANDBY
bin/spark-submit --master spark://node1:7077 /export/server/spark-3.2.0/examples/src/main/python/pi.py 1000
# node1 master的进程
kill -9 26822