• dolphinscheduler3.0beta搭建+hadoop+kerberos


    按照官网的流程先把大致的东西搭建出来  ,这里就不赘述了

    具体使用中需要和hdfs结合的话需要配置更多参数

    如果你的大数据平台也是cdh 那可以直接复用我的环境

    注意最下面的SPARK1那里我删掉1,改成SPARK了  最下面的输出也要跟着改下 

    1. export HADOOP_HOME=${HADOOP_HOME:-/opt/cloudera/parcels/CDH/lib/hadoop}
    2. export HADOOP_CONF_DIR=${HADOOP_CONF_DIR:-/etc/hadoop/conf}
    3. #export SPARK_HOME1=${SPARK_HOME1:-/opt/soft/spark1}
    4. export SPARK_HOME=${SPARK_HOME:-/opt/cloudera/parcels/CDH/lib/spark}
    5. export PYTHON_HOME=${PYTHON_HOME:-/usr/local/python3.6.11}
    6. export HIVE_HOME=${HIVE_HOME:-/opt/cloudera/parcels/CDH/lib/hive}
    7. export FLINK_HOME=${FLINK_HOME:-/data/flink-1.13.6}
    8. export DATAX_HOME=${DATAX_HOME:-/data/datax}

    注意ds3必须要用flink1.13以上的版本 

    搭完之后应该是访问不了的 ,因为部署脚本有bug ,没有分发mysql包到api-server上

    我的ds部署位置是/data/dolphinscheduler-3-beta 下面都按此举例

    cp /data/apache-dolphinscheduler-3.0.0-beta-2-bin/tools/libs/mysql-connector-java-8.0.16.jar  /data/apache-dolphinscheduler-3.0.0-beta-2-bin/api-server/mysql-connector-java-8.0.16.jar 
    

    记得把包分发到所有节点的所有服务 , alert-server  api-server master-server  worker-server 命令只是换换位置,不再赘述。

    部署脚本的权限也有问题,手动设置一下 

    chown -R dolphinscheduler:dolphinscheduler  /data/dolphinscheduler-3-beta/

    把权限处理一下  这会再stop-all start-all 应该可以访问了 

    搭建完成之后的配置存放在 conf下的 common.properties 中 初步搭建完成之后可以修改这里的配置来进行调整

    随便找个服务修改conf下的common.properties文件

    1. 需要修改的部分如下
    2. hadoop.security.authentication.startup.state=true
    3. data.basedir.path=/data/dsdata ds文件的存储位置 记得自己手动创建
    4. resource.storage.type=HDFS
    5. java.security.krb5.conf.path=/etc/krb5.conf 指定krb5文件的位置
    6. login.user.keytab.username=hdfs/supergroup@CDP.PROD 指定kerberos用户名
    7. 这个用户需要拥有对hdfs的操作权限 可以自己先kinit完了测试一下
    8. login.user.keytab.path=/var/lib/keytab/hdfs.keytab 指定keytab文件位置
    9. hdfs.root.user=hdfs 指定hdfs的root用户
    10. fs.defaultFS=hdfs://nameservice1 ha的hdfs需要填写ha路径
    11. yarn.resourcemanager.ha.rm.ids=master1.cdp.prod:8032 yarn的路径
    12. yarn.application.status.address 这个不用修改
    13. yarn.job.history.status.address=http://master2.cdp.prod:19888/ws/v1/history/mapreduce/jobs/%s yarn 的jobhistory路径

    然后分发到 alert-server  api-server master-server  worker-server 的conf下  直接覆盖原来的就好了  ,这些配置文件都是一样的

    然后把hadoop的配置文件软链接过来

    1. ln -s /etc/hadoop/conf/hdfs-site.xml /data/dolphinscheduler-3-beta/api-server/conf/hdfs-site.xml
    2. ln -s /etc/hadoop/conf/hdfs-site.xml /data/dolphinscheduler-3-beta/worker-server/conf/hdfs-site.xml
    3. ln -s /etc/hadoop/conf/hdfs-site.xml /data/dolphinscheduler-3-beta/master-server/conf/hdfs-site.xml
    4. ln -s /etc/hadoop/conf/hdfs-site.xml /data/dolphinscheduler-3-beta/alert-server/conf/hdfs-site.xml
    5. ln -s /etc/hadoop/conf/core-site.xml /data/dolphinscheduler-3-beta/api-server/conf/core-site.xml
    6. ln -s /etc/hadoop/conf/core-site.xml /data/dolphinscheduler-3-beta/worker-server/conf/core-site.xml
    7. ln -s /etc/hadoop/conf/core-site.xml /data/dolphinscheduler-3-beta/master-server/conf/core-site.xml
    8. ln -s /etc/hadoop/conf/core-site.xml /data/dolphinscheduler-3-beta/alert-server/conf/core-site.xml

    然后创建之前配置的本地文件位置 

    1. mkdir /data/dsdata
    2. chown -R dolphinscheduler:dolphinscheduler /data/dsdata

    记得在所有节点上执行 

    完了就可以  stop-all start-all

    然后去ds上测试一下

    首先创建一个租户  比如test 

    然后去资源中心再创建几个test文件夹

    然后再去项目管理里创建几个test项目 

    都可以创建的话就是部署成功了 ,有错误需要去apiserver的日志里查看 。按流程来基本应该没有问题

  • 相关阅读:
    Hive DML常见操作
    Day38——Dp专题
    torch.nn用法
    数据库及ADO.NET学习(六)
    Blender之锁定摄像机到视图方位
    计时器Timing Wheel 时间轮算法
    【纯css】实现无限滚动循环组件,无js
    基于hadoop的智能软考刷题系统
    OPenCV的重要结构体Mat
    Prometheus入门与实战
  • 原文地址:https://blog.csdn.net/h952520296/article/details/125897642