本节继续使用3个节点centos01、centos02和centos03讲解Spark的Standalone模式的集群搭建。
由于Spark本身是用Scala语言写的,运行在Java虚拟机(JVM)上,因此在搭建Spark集群环境之前需要先安装好JDK,建议JDK版本在1.8以上。JDK的安装此处不做讲解。
Spark Standalone模式的集群搭建需要在集群的每个节点都安装Spark,集群角色分配如表
| 节 点 |
角 色 |
| centos01 |
Master |
| centos02 |
Worker |
| centos03 |