码农知识堂 - 1000bd
  •   Python
  •   PHP
  •   JS/TS
  •   JAVA
  •   C/C++
  •   C#
  •   GO
  •   Kotlin
  •   Swift
  • spark的保姆级配置教程


    目录

    前提准备

    (一) Hadoop集群搭建

     (二)Anaconda环境搭建

    (三)创建pyspark环境

    (四)Spark Local模式搭建

    1.Spark下载、上传和解压

    2.上传Spark压缩包

    3.解压上传好的压缩包

     4.配置环境变量

    (五)配置Spark配置文件

    1.spark-env.sh

    2.测试


    前提准备

    Linux:CentOS-7-x86_64-DVD-1708.iso

    Hadoop:hadoop-2.7.3.tar.gz

    Java:jdk-8u181-linux-x64.tar.gz

    Anaconda:Anaconda3-2021.11-Linux-x86_64.sh

    Spark:spark-2.4.0-bin-without-hadoop.tgz

    (一) Hadoop集群搭建

    观看我的另一篇文章:

    https://blog.csdn.net/2202_75334392/article/details/132863607?spm=1001.2014.3001.5502

     (二)Anaconda环境搭建

    可以观看我的另一篇文章:

    https://blog.csdn.net/2202_75334392/article/details/133420659?spm=1001.2014.3001.5502

    (三)创建pyspark环境

    1. conda create -n pyspark python=3.6 # 基于python3.6创建pyspark虚拟环境
    2. conda activate pyspark # 激活pyspark虚拟环境

    pip下载pyhive、pyspark、jieba包

    pip install pyspark==2.4.0 jieba pyhive -i https://pypi.tuna.tsinghua.edu.cn/simple

    (四)Spark Local模式搭建

    1.Spark下载、上传和解压

    该环境搭建spark使用spark-2.4.0版本

    下载地址:Index of /dist/spark/spark-2.4.0

    2.上传Spark压缩包

    一样运用xshell上传文件

    3.解压上传好的压缩包

    cd /opt/software
    tar -zxvf spark-2.4.0-bin-without-hadoop.tgz -C /opt

    cd /opt

    解压之后进行重命名,重命名为spark-2.4.0
    mv spark-2.4.0-bin-without-hadoop/ spark-2.4.0

     

     4.配置环境变量

    vim /etc/profile

    路径根据你自己的修改

    1. export JAVA_HOME=/opt/jdk-1.8
    2. export HADOOP_HOME=/usr/local/hadoop
    3. export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PAT
    4. export SPARK_HOME=/opt/spark-2.4.0
    5. export PYSPARK_PYTHON=/opt/anaconda3/envs/pyspark/bin/python
    6. export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$SPARK_HOME/bin:$PATH

    vi  ~/.bashrc

    1. export JAVA_HOME=/opt/jdk-1.8
    2. export PYSPARK_PYTHON=/opt/anaconda3/envs/pyspark/bin/python
    3. export PATH=$JAVA_HOME/bin:$PATH

    再刷新配置文件

    1. source /etc/profile
    2. source ~/.bashrc

    (五)配置Spark配置文件

    cd /opt/spark-2.4.0/conf

    1.spark-env.sh

    cp spark-env.sh.template spark-env.sh 

    在文件后面追加下面的内容
    export JAVA_HOME=/opt/jdk1.8.0
    export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)

    2.测试

    如果报以下错误,就输入conda activate pyspark 激活环境

    成功启动是下图界面

  • 相关阅读:
    python中的if ... is None else ...含义与用法
    关于判断点是否位于轮廓内的一点思考
    CTFshow_MISC入门_图片篇(基础操作&信息附加)wp
    mysql随笔
    教你几招,轻松实现视频转音频
    思维方式-SMART、5W2H、SWOT、4P、六顶思考帽、金字塔原理
    oracle数据库日志挖掘操作步骤
    手机银行体验性测试:如何获取用户真实感受
    Pytroch 常见问题总结
    基于微服务的第二课堂管理系统(素质拓展学分管理平台)SpringCloud、SpringBoot 分布式,微服务
  • 原文地址:https://blog.csdn.net/2202_75334392/article/details/136355422
  • 最新文章
  • 攻防演习之三天拿下官网站群
    数据安全治理学习——前期安全规划和安全管理体系建设
    企业安全 | 企业内一次钓鱼演练准备过程
    内网渗透测试 | Kerberos协议及其部分攻击手法
    0day的产生 | 不懂代码的"代码审计"
    安装scrcpy-client模块av模块异常,环境问题解决方案
    leetcode hot100【LeetCode 279. 完全平方数】java实现
    OpenWrt下安装Mosquitto
    AnatoMask论文汇总
    【AI日记】24.11.01 LangChain、openai api和github copilot
  • 热门文章
  • 十款代码表白小特效 一个比一个浪漫 赶紧收藏起来吧!!!
    奉劝各位学弟学妹们,该打造你的技术影响力了!
    五年了,我在 CSDN 的两个一百万。
    Java俄罗斯方块,老程序员花了一个周末,连接中学年代!
    面试官都震惊,你这网络基础可以啊!
    你真的会用百度吗?我不信 — 那些不为人知的搜索引擎语法
    心情不好的时候,用 Python 画棵樱花树送给自己吧
    通宵一晚做出来的一款类似CS的第一人称射击游戏Demo!原来做游戏也不是很难,连憨憨学妹都学会了!
    13 万字 C 语言从入门到精通保姆级教程2021 年版
    10行代码集2000张美女图,Python爬虫120例,再上征途
Copyright © 2022 侵权请联系2656653265@qq.com    京ICP备2022015340号-1
正则表达式工具 cron表达式工具 密码生成工具

京公网安备 11010502049817号