• cdh3.6.2集成flink1.12.0


    若本地编译失败,可下载此编译好的包

    cdh6.3.2集成flink1.12.0所需要的编译好的包 https://download.csdn.net/download/qq_25073261/86399346

    1.安装插件

    安装git、wget、createrepo工具

    yum install -y wget git createrepo
    
    • 1

    2.下载flink包

    cd /software
    wget https://archive.apache.org/dist/flink/flink-1.12.0/flink-1.12.0-bin-scala_2.12.tgz
    mkdir -p /var/www/html/flink
    mv flink-1.12.0-bin-scala_2.12.tgz /var/www/html/flink
    
    • 1
    • 2
    • 3
    • 4

    在浏览器访问
    http://192.168.1.160/flink/
    在这里插入图片描述

    3.下载工具flink-parcel

    cd /software
    git clone https://github.com/pkeropen/flink-parcel.git
    
    • 1
    • 2

    进入到flink-parcel目录下,修改配置文件

    cd /software/flink-parcel
    cp flink-parcel.properties flink-parcel.properties.bak
    vim flink-parcel.properties
    
    #FLINK 下载地址
    FLINK_URL=http://192.168.1.160/flink/flink-1.12.0-bin-scala_2.12.tgz
    
    #flink版本号
    FLINK_VERSION=1.12.0
    
    #扩展版本号
    EXTENS_VERSION=BIN-SCALA_2.12
    
    #操作系统版本,以centos为例
    OS_VERSION=7
    
    #CDH 小版本
    CDH_MIN_FULL=5.2
    CDH_MAX_FULL=6.3.3
    
    #CDH大版本
    CDH_MIN=5
    CDH_MAX=6
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23

    赋权编译,完成后会在当前目录生成FLINK-1.12.0-BIN-SCALA_2.12_build文件

    chmod u+x build.sh
    ./build.sh  parcel
    
    • 1
    • 2

    在这里插入图片描述

    构建flink-yarn csd包,完成后会生成FLINK_ON_YARN-1.12.0.jar

    ./build.sh csd_on_yarn
    
    • 1

    在这里插入图片描述
    将FLINK-1.12.0-BIN-SCALA_2.12_build打包

    tar -cvf ./flink-1.12.0-bin-scala_2.12.tar ./FLINK-1.12.0-BIN-SCALA_2.12_build/
    
    • 1

    文件夹下的flink-1.12.0-bin-scala_2.12.tar、FLINK_ON_YARN-1.12.0.jar就是目标包

    4.编译flink-shaded版本

    1)下载源码包并解压
    下载地址:https://flink.apache.org/downloads.html#flink-shaded
    在这里插入图片描述

    网上查资料发现使用flink-shaded-12.0-src.tgz编译后确实没有flink-shaded-hadoop-2-uber 3.0.0-cdh6.3.2-10.0这个文件,但是flink-shaded-10.0也适配flink1.12环境,于是改用官网提供的flink-shaded-10.0-src.tgz进行编译

    cd /software
    wget https://archive.apache.org/dist/flink/flink-shaded-10.0/flink-shaded-10.0-src.tgz
    tar -zxvf flink-shaded-10.0-src.tgz
    
    • 1
    • 2
    • 3

    进入到flink-shaded-10.0目录下修改pom.xml配置文件,新增

    cd flink-shaded-10.0
    vim ./pom.xml
    
    
        vendor-repos
        
            
                vendor-repos
            
        
        
        
            
            
                cloudera-releases
                https://repository.cloudera.com/artifactory/cloudera-repos
                
                    true
                
                
                    false
                
            
            
            
                HDPReleases
                HDP Releases
                https://repo.hortonworks.com/content/repositories/releases/
                false
                true
            
            
                HortonworksJettyHadoop
                HDP Jetty
                https://repo.hortonworks.com/content/repositories/jetty-hadoop
                false
                true
            
            
            
                mapr-releases
                https://repository.mapr.com/maven/
                false
                true
            
        
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47

    flink-shaded-10.0目录下进行编译flink-shaded

    cd /software/flink-shaded-10.0
    mvn clean install -DskipTests -Pvendor-repos -Dhadoop.version=3.0.0-cdh6.3.2 -Dscala-2.12 -Drat.skip=true -T10C
    
    • 1
    • 2

    在这里插入图片描述

    cd /software/flink-shaded-10.0/flink-shaded-hadoop-2-parent/flink-shaded-hadoop-2-uber/target
    
    • 1

    在这里插入图片描述

    将flink-shaded-hadoop-2-uber-3.0.0-cdh6.3.2-10.0.jar放在每台服务器的/opt/cloudera/parcels/FLINK/lib/flink/lib目录下

    5.将编译好的flink-1.12.0-bin-scala_2.12.tar解压到/var/www/html并重命名

    tar -xvf /software/flink-parcel/flink-1.12.0-bin-scala_2.12.tar -C /var/www/html/
    cd /var/www/html/
    # 重命名目录名称
    mv FLINK-1.12.0-BIN-SCALA_2.12_build/ flink1.12.0-on-cdh6.3.2
    cd flink1.12.0-on-cdh6.3.2
    # 创建flink-on-cdh的本地仓库,确保createrepo工具已经安装
    createrepo .
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    开启httpd服务后,可以通过以下网址查看是否正常上传

    http://192.168.1.160/flink1.12.0-on-cdh6.3.2/
    
    • 1

    在这里插入图片描述

    6.配置局域网flink的yum

     vim /etc/yum.repos.d/flink-on-cdh.repo
     
    [flink-on-cdh]
    name=flink-on-cdh
    baseurl=http://192.168.1.160/flink1.12.0-on-cdh6.3.2/
    enabled=1
    gpgcheck=0
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    将上述配置repo配置文件分发到所有节点上

    所有节点上清除yum并建立yum缓存

    yum clean all
    yum makecache
    
    • 1
    • 2

    CM-Server主节点上,将FLINK_ON_YARN-1.12.0.jar包复制到/opt/cloudera/csd/目录下(目的是让cm识别)

    cp /software/flink-parcel/FLINK_ON_YARN-1.12.0.jar /opt/cloudera/csd/
    
    • 1

    重启集群的CM-Server及CM-agent

    7.配置parcel库

    CM页面—>主机—> parcel —> 配置,添加上传的parcel的位置
    在这里插入图片描述
    检查新Parcel ,然后下载—>分配—>激活

    在这里插入图片描述
    重启服务

    systemctl restart cloudera-scm-server

    以及各agent节点
    systemctl restart cloudera-scm-agent

    修改httpd服务,在模块添加 .parcel选项

    vim /etc/httpd/conf/httpd.conf
    
    • 1

    在这里插入图片描述

    重启http服务

    systemctl restart httpd
    
    • 1

    8.部署flink-yarn服务

    添加服务–>选中flink-yarn
    在这里插入图片描述
    自定义节点选择一个就行,yarn模式都是在yarn中运行

    在这里插入图片描述
    审核更改,这两项安全验证的记得去掉,不然等下会启动失败的,我们不需要安全验证这些,不然会报错缺少安全验证的文件,flink启动失败的

    在这里插入图片描述
    继续点击至汇总完成

    在页面重启flink-yarn服务
    在这里插入图片描述

    结果如下

    在这里插入图片描述

  • 相关阅读:
    为什么不是Github Copilot,不是 Devin 而是 AutoCoder
    CSS笔记——Flex、Grid布局、css响应式布局
    信息安全技术实验:网络嗅探与欺骗
    一言不合就重构
    ssm信息安全资讯网站毕业设计-附源码191651
    @Transactional和普通自定义切面执行顺序的思考
    面试题 05.02. 二进制数转字符串
    并发基本原理(四):AQS源码解析1-ReentrantLock的lock实现原理
    【算法】KMP算法——解决字符串匹配问题
    Python----break关键字对while...else结构的影响
  • 原文地址:https://blog.csdn.net/qq_25073261/article/details/126306777