- import org.apache.spark.sql.SparkSession
-
- object HiveToMySQL {
- def main(args: Array[String]): Unit = {
- // 创建SparkSession
- val spark = SparkSession.builder()
- .appName("HiveToMySQL")
- .enableHiveSupport()
- .getOrCreate()
-
- // 读取Hive表数据
- val hiveDF = spark.table("hive_table_name")
-
- // 写入MySQL表
- hiveDF.write
- .format("jdbc")
- .option("url", "jdbc:mysql://localhost:3306/database_name")
- .option("dbtable", "mysql_table_name")
- .option("user", "mysql_username")
- .option("password", "mysql_password")
- .save()
-
- // 关闭SparkSession
- spark.stop()
- }
- }
"hive_table_name":Hive表的名称。"jdbc:mysql://localhost:3306/database_name":MySQL数据库的连接URL,包括主机名、端口号和数据库名称。"mysql_table_name":要写入的MySQL表的名称。"mysql_username":MySQL数据库的用户名。"mysql_password":MySQL数据库的密码。确保替换这些参数后,运行代码即可将Hive表中的数据写入到MySQL表中。