• spark 集成 ClickHouse 和 MySQL (读和写操作)(笔记)


    目录

    前言:

    一.spark读出

    1. spark 读出 MySQL表数据

    1.2 spark 读出 ClickHouse表数据

     二.spark写入

    1. spark 写入 MySQL表数据

     2.spark 写入 ClickHouse表数据


    前言:

    这篇文章主要记录的是用spark集成ClickHouse和MySQL,

    将数据read出,和将数据write写入表的 (记录笔记)

    创建sparkSession

    因为这个不是重点,所以先简单创建下,实际是需要按照你的需求创建的

    1. // 创建SparkSession
    2. val spark = SparkSession.builder()
    3. .appName("Write to MySQL")
    4. .config("spark.sql.catalogImplementation", "hive")
    5. .getOrCreate()

    一.spark读出

    1. spark 读出 MySQL表数据

    1. //读取数据
    2. spark.read.format("jdbc")
    3. .option("url","jdbc:mysql://address-ip:3306/ds_db01??characterEncoding=UTF-8") //url
    4. .option("driver","com.mysql.jdbc.Driver") //驱动
    5. .option("user","root") //用户名
    6. .option("password","123456") //密码
    7. .option("dbtable","product_info") //表
    8. .load().createOrReplaceTempView("v")
    9. spark.sql("select * from v") //查询

    1.2 spark 读出 ClickHouse表数据

    1. // 以jdbc为连接方式进行连接clickhouse
    2. val frame = sc.read.format("jdbc")
    3. .option("driver","ru.yandex.clickhouse.ClickHouseDriver" )// 配置driver
    4. .option("url", "jdbc:clickhouse:/address-ip:8123/shtd_result")// 配置url
    5. .option("dbtable", "cityavgcmpprovince")
    6. .option("user", "default")
    7. .option("password", "123456")
    8. .load()

     二.spark写入

    1. spark 写入 MySQL表数据

    1. // 将数据写入MySQL表
    2. processedData.write
    3. .format("jdbc")
    4. .option("driver", "com.mysql.jdbc.Driver")
    5. .option("url", "jdbc:mysql://mysql-host:3306/database")
    6. .option("dbtable", "mysql_table")
    7. .option("user", "username")
    8. .option("password", "password")
    9. .mode(SaveMode.Append)
    10. .save()

     2.spark 写入 ClickHouse表数据

    1. // 将数据写入ClickHouse表
    2. processeData.write
    3. .format("jdbc")
    4. .option("driver", "ru.yandex.clickhouse.ClickHouseDriver")
    5. .option("url", "jdbc:clickhouse://clickhouse-host:8123/database")
    6. .option("dbtable", "clickhouse_table")
    7. .option("user", "username")
    8. .option("password", "password")
    9. .mode(SaveMode.Append)
    10. .save()
    processedData:代表你处理好的数据的DataFrame对象。
    path/to/processedData.parquet:代表你处理好的数据的存储路径,可以是Parquet、CSV等格式。
    mysql-host:代表MySQL数据库的主机名或IP地址。
    database:代表MySQL数据库的名称。
    mysql_table:代表要写入的MySQL表的名称。
    username:代表连接MySQL所需的用户名。
    password:代表连接MySQL所需的密码

    mode参数

    1. SaveMode.Append:将新数据追加到目标表的末尾。如果表不存在,则创建一个新表并保存数据。

    2. SaveMode.Overwrite:完全覆盖目标表的数据。如果表不存在,则创建一个新表并保存数据。

    3. SaveMode.ErrorIfExists:如果目标表已经存在,则抛出一个错误。用于避免意外地覆盖已有数据。

    4. SaveMode.Ignore:如果目标表已经存在,则忽略保存操作,不做任何处理。

    这些参数用于指定保存数据时的行为。根据具体的需求,选择合适的保存模式可以确保数据正确地保存到目标表中,同时避免意外覆盖或丢失数据。

  • 相关阅读:
    天津市专业大数据培训班,大数据就业岗位的多样性
    springboot 整合谷歌 gRPC
    趁热打铁,再构建百万节点关系中医药方剂知识图谱
    PerfView专题 (第十篇):洞察 C# 终结队列引发的内存泄漏
    Python Django路由urls.py详解
    Some App Tech Support 一些应用技术支持
    【愚公系列】2022年10月 LiteDB数据库-.Net Core中的使用
    JavaWeb之Maven学习
    spark-RDD的两大方法
    Java多线程(3)
  • 原文地址:https://blog.csdn.net/m0_69097184/article/details/133355558