• 集群模式执行Spark程序(第七弹)


    #添加打包插件

    在pom.xml文件中添加所需插件

    插入内容如下:

    1.     src/main/scala
    2.     src/test/scala
    3.    
    4.        
    5.             net.alchim31.maven
    6.             scala-maven-plugin
    7.             3.2.2
    8.            
    9.                
    10.                    
    11.                         compile
    12.                         testCompile
    13.                    
    14.                    
    15.                        
    16.                             -dependencyfile
    17.                             ${project.build.directory}/.scala_dependencies
    18.                        
    19.                    
    20.                
    21.            
    22.        
    23.        
    24.             org.apache.maven.plugins
    25.             maven-shade-plugin
    26.             2.4.3
    27.            
    28.                
    29.                     package
    30.                    
    31.                         shade
    32.                    
    33.                    
    34.                        
    35.                            
    36.                                 *:*
    37.                                
    38.                                     META-INF/*.SF
    39.                                     META-INF/*.DSA
    40.                                     META-INF/*.RSA
    41.                                
    42.                             
    43.                        
    44.                        
    45.                            
    46.                                                  "org.apache.maven.plugins.shade.resource.ManifestResourceTransformer">
    47.                                
    48.                            
    49.                        
    50.                    
    51.                
    52.            
    53.        
    54.    

    等待加载

    步骤1 将鼠标点在WordCount ,ctrl+c后ctrl+v复制,重新命名为WordCount_Online

    步骤2 修改代码

        # 3.读取数据文件,RDD可以简单的理解为是一个集合,集合中存放的元素是String类型

    val data : RDD[String] = sparkContext.textFile(args(0))

    # 7.把结果数据保存到HDFS上

    result.saveAsTextFile(args(1))

    # 修改以上这2行代码

    步骤3 点击右边【maven projects】—>双击【lifecycle】下的package,自动将项目打包成Jar包

    打包成功标志: 显示BUILD SUCCESS,可以看到target目录下的2个jar包

    步骤4 启动Hadoop集群才能访问web页面

    $ start-all.sh

    步骤5 访问192.168.196.101(master):50070 点击【utilities】—>【browse the file system】

     

    步骤6 点击【spark】—>【test】,可以看到words.txt

    步骤7 将words.txt删除

    $  hadoop fs -rm /spark/test/words.txt

    步骤8 刷新下页面。可以看到/spark/test路径下没有words.txt

    步骤9  Alt+p,切到/opt/software,把含有第3方jar的spark_chapter02-1.0-SNAPSHOT.jar包拉进

    #先将解压的两个jar包复制出来

    步骤10 也把F盘/word/words.txt直接拉进/opt/software

    步骤11 查看有没有words.txt和spark_chapter02-1.0-SNAPSHOT.jar

    步骤12 执行提交命令

    $ bin/spark-submit \

     --master spark://master:7077 \

     --executor-memory 1g \

     --total-executor-cores 1 \

    /opt/software/spark_chapter02-1.0-SNAPSHOT.jar \

    /spark/test/words.txt \

    /spark/test/out

  • 相关阅读:
    王道计算机考研 操作系统学习笔记 + 完整思维导图篇章五: IO管理
    Android Studio 中MotinLayout的简单使用
    跳表 skiplist
    缺陷修改实践——replace函数的运用|思考?
    顾客点餐系统-----操作菜品JDBC代码的编写(1)
    Pytorch模型量化
    关于论青少年尽早学少儿编程之说
    怎么看待编程语言
    org.springframework.test.util.ReflectionTestUtils.invokeMethod方法的使用
    分类预测 | MATLAB实现PCA-LSTM(主成分长短期记忆神经网络)分类预测
  • 原文地址:https://blog.csdn.net/m0_57781407/article/details/126294896