• Trino 391 安装配置


    一、下载

    https://repo1.maven.org/maven2/io/trino/trino-server/391/

     二、环境要求

    2.1 Linux操作系统

    • 需要 64 位

    • 为运行 Trino 进程的用户提供足够的 ulimit
       

      1. vim /etc/security/limits.conf
      2. trino soft nofile 131072
      3. trino hard nofile 131072

      2.2 Java运行环境

    • Trino 需要 64 位版本的 Java 17,最低要求版本为 17.0.3。Java 8 或 Java 11 等早期主要版本不起作用。不支持较新的主要版本,例如 Java 18 或 19——它们可能工作,但未经测试

        2.3 Python 

    • 版本 2.6.x、2.7.x 或 3.x

    • bin/launcher仅脚本需要

    三、上传trino和jdk11安装包

    1. tar -zxf trino-server-391.tar.gz -C /opt/module/
    2. tar -zxf jdk-17_linux-x64_bin.tar.gz -C /opt/module/
    3. #jdk17下载地址
    4. https://www.oracle.com/java/technologies/downloads/#java17

     四、Trino配置

    在安装目录中创建一个etc目录,并在etc下创建一个catalog目录

    4.1 config.properties

    1. #coordinator
    2. coordinator=true
    3. node-scheduler.include-coordinator=true #true:表示既是coordinator又是worker false:仅是coordinator
    4. http-server.http.port=8080
    5. query.max-memory=10GB
    6. query.max-memory-per-node=5GB
    7. discovery-server.enabled=true
    8. discovery.uri=http://bigdata01:8080
    9. web-ui.authentication.type=fixed
    10. web-ui.user=hadoop
    11. #workers
    12. coordinator=false
    13. http-server.http.port=8080
    14. query.max-memory=10GB
    15. query.max-memory-per-node=5GB
    16. discovery.uri=http://bigdata01:8080

    4.2 node.properties

    1. node.environment=bigdata_test
    2. node.id=bigdata01
    3. node.data-dir=/data/trino/data

    上述属性描述如下:

    • node.environment: 环境的名称。集群中的所有 Trino 节点必须具有相同的环境名称。名称必须以小写字母数字字符开头,并且仅包含小写字母数字或下划线 ( _) 字符。

    • node.id:此安装 Trino 的唯一标识符。这对于每个节点必须是唯一的。此标识符应在 Trino 重新启动或升级期间保持一致。如果在一台机器上运行多个 Trino 安装(即同一台机器上的多个节点),每个安装必须有一个唯一的标识符。标识符必须以字母数字字符开头,并且只能包含字母数字-、 或_ 字符。

    • node.data-dir:数据目录的位置(文件系统路径)。Trino 在此处存储日志和其他数据。

    4.3 jvm.config

    1. -server
    2. -Xmx10G
    3. -XX:InitialRAMPercentage=80
    4. -XX:MaxRAMPercentage=80
    5. -XX:G1HeapRegionSize=32M
    6. -XX:+ExplicitGCInvokesConcurrent
    7. -XX:+ExitOnOutOfMemoryError
    8. -XX:+HeapDumpOnOutOfMemoryError
    9. -XX:-OmitStackTraceInFastThrow
    10. -XX:ReservedCodeCacheSize=512M
    11. -XX:PerMethodRecompilationCutoff=10000
    12. -XX:PerBytecodeRecompilationCutoff=10000
    13. -Djdk.attach.allowAttachSelf=true
    14. -Djdk.nio.maxCachedBufferSize=2000000
    15. -XX:+UnlockDiagnosticVMOptions
    16. -XX:+UseAESCTRIntrinsics

     4.4 log.properties

    io.trino=INFO

    默认的最低级别是INFO,有四个级别:DEBUGINFOWARN and ERROR

    4.5 catalog目录下相关配置

    1. #clickhouse.properties
    2. connector.name=clickhouse
    3. connection-url=jdbc:clickhouse://bigdata03:8123/
    4. connection-user=default
    5. connection-password=xxx
    6. clickhouse.map-string-as-varchar=true
    7. #doris.properties
    8. connector.name=mysql
    9. connection-url=jdbc:mysql://bigdata03:9030
    10. connection-user=xxxx
    11. connection-password=xxxx
    12. #hive.properties
    13. connector.name=hive
    14. hive.metastore.uri=thrift://bigdata01:9083,thrift://bigdata02:9083
    15. hive.config.resources=/opt/module/hadoop-3.3.3/etc/hadoop/core-site.xml,/opt/module/hadoop-3.3.3/etc/hadoop/hdfs-site.xml
    16. hive.allow-drop-table=true
    17. hive.recursive-directories=true
    18. hive.insert-existing-partitions-behavior=OVERWRITE
    19. hive.storage-format=PARQUET
    20. hive.compression-codec=SNAPPY
    21. hive.non-managed-table-writes-enabled=true
    22. hive.translate-hive-views=true
    23. hive.validate-bucketing=false
    24. hive.parquet.use-column-names=false
    25. #jmx.properties
    26. connector.name=jmx
    27. jmx.dump-tables=java.lang:type=Runtime,trino.execution.scheduler:name=NodeScheduler
    28. jmx.dump-period=10s
    29. jmx.max-entries=86400
    30. #mongodb.properties
    31. connector.name=mongodb
    32. mongodb.connection-url=mongodb://xxxxx:27017/

     五、启动

    注意:因为使用的jdk1.8的 所以需要在bin/launcher执行文件中添加jdk17的路径

    PATH=/opt/module/jdk-17.0.4/bin:$PATH

    1. #运行以下命令作为守护进程启动
    2. bin/launcher start
    3. #前台运行,将日志和其他输出
    4. bin/launcher run

     

    六、遇到的问题

    6.1 Unable to create input format org.apache.hadoop.mapred.TextInputFormat

    1. 解决:
    2. 1、找到hadoop下的hadoop-lzo-0.4.21-SNAPSHOT.jar包
    3. 2、将hadoop-lzo-0.4.21-SNAPSHOT.jar包复制到trino/plugin/hive/下
    4. 3、重启trino

     

  • 相关阅读:
    kylin10 mount.nfs: No such device
    JAVA小游戏 “拼图”
    linux U盘无法使用,提示“Partition table entries are not in disk order“
    nordic——NCS(基于NCS—zephyrRTOS)下的DFU升级(ble加uart)
    MySQL 8.0 OCP 1Z0-908认证考试题库(7-20)
    vertx学习
    Unity引擎制作玻璃的反射和折射效果
    5.XMLHttpRequest对象
    Python中的类说明
    微信小程序连接后端案例
  • 原文地址:https://blog.csdn.net/qq_37056683/article/details/126399379