• flink学习之旅(二)


      目前flink中的资源管理主要是使用的hadoop圈里的yarn,故此需要先搭建hadoop环境并启动yarn和hdfs,由于看到的教程都是集群版,现实是只有1台机器,故此都是使用这台机器安装。

    1.下载对应hadoop安装

    https://dlcdn.apache.org/hadoop/common/hadoop-3.3.5/hadoop-3.3.5.tar.gz

    2.解压到指定路径比如这里我选择的如下:

    3.修改hadoop相关配置

    cd  /root/dxy/hadoop/hadoop-3.3.5/etc/hadoop

    vi core-site.xml  核心配置文件

    1. "1.0" encoding="UTF-8"?>
    2. "text/xsl" href="configuration.xsl"?>
    3. <configuration>
    4. <property>
    5. <name>fs.defaultFSname>
    6. <value>hdfs://10.26.141.203:8020value>
    7. property>
    8. <property>
    9. <name>hadoop.tmp.dirname>
    10. <value>/root/dxy/hadoop/hadoop-3.3.5/datasvalue>
    11. property>
    12. <property>
    13. <name>hadoop.http.staticuser.username>
    14. <value>rootvalue>
    15. property>
    16. configuration>

     vi  hdfs-site.xml 修改hdfs配置文件

    1. "1.0" encoding="UTF-8"?>
    2. "text/xsl" href="configuration.xsl"?>
    3. <configuration>
    4. <property>
    5. <name>dfs.namenode.http-addressname>
    6. <value>10.26.141.203:9870value>
    7. property>
    8. <property>
    9. <name>dfs.namenode.secondary.http-addressname>
    10. <value>10.26.141.203:9868value>
    11. property>
    12. configuration>

    vi yarn-site.xml 修改yarn配置

    1. "1.0"?>
    2. <configuration>
    3. <property>
    4. <name>yarn.nodemanager.aux-servicesname>
    5. <value>mapreduce_shufflevalue>
    6. property>
    7. <property>
    8. <name>yarn.resourcemanager.hostnamename>
    9. <value>10.26.141.203value>
    10. property>
    11. <property>
    12. <name>yarn.nodemanager.env-whitelistname>
    13. <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOMEvalue>
    14. property>
    15. configuration>
    16. ~

     vim mapred-site.xml  

    1. "1.0" encoding="UTF-8"?>
    2. "text/xsl" href="configuration.xsl"?>
    3. <configuration>
    4. <property>
    5. <name>mapreduce.framework.namename>
    6. <value>yarnvalue>
    7. property>
    8. configuration>

    vi workers 填上 服务器ip 如:

    10.26.141.203

    修改环境变量:

    export HADOOP_HOME=/root/dxy/hadoop/hadoop-3.3.5
    export PATH=$PATH:$HADOOP_HOME/bin
    export PATH=$PATH:$HADOOP_HOME/sbin

    export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop
    export HADOOP_CLASSPATH=`hadoop classpath`

    source /etc/profile

    完成后可以执行hadoop version 查看是否配置成功如下:

    hdfs第一次启动时需要格式化

    hdfs namenode -format

    启动yarn和hdfs 

     sbin/start-dfs.sh 

            sbin/start-yarn.sh

    使用界面访问是否启动成功:

    使用application运行flink任务并提交到yarn上如下:

    bin/flink run-application -t yarn-application -c com.dxy.learn.demo.SocketStreamWordCount FlinkLearn-1.0-SNAPSHOT.jar 

  • 相关阅读:
    设计模式9、组合模式 Composite
    java毕业设计毕业论文管理系统Mybatis+系统+数据库+调试部署
    10道不得不会的Docker面试题
    uniapp 获取cookie与携带cookie请求数据
    MATLAB嵌套循环
    从源码角度分析Mybatis级联映射的实现原理
    基于SSM的IT运维管理系统
    【AI】大数据机器学习—统计学习及监督学习概论
    生成器创建方式、浅拷贝与深拷贝区别与案例比较
    iMazing2024最新版iOS设备管理软件
  • 原文地址:https://blog.csdn.net/u012440725/article/details/135775326