在Spring Boot中使用Hive,需要引入以下依赖:
- <dependency>
- <groupId>org.springframework.bootgroupId>
- <artifactId>spring-boot-starter-data-hadoopartifactId>
- dependency>
然后,在application.properties
中配置Hive相关信息:
- spring.hadoop.config.fs.defaultFS=hdfs://namenode:8020
- spring.hadoop.config.hive.metastore.uri=thrift://metastore:9083
其中,fs.defaultFS
指定HDFS的地址,hive.metastore.uri
指定Hive的元数据服务地址。
使用Hive可以通过以下方式:
- import org.apache.hadoop.hive.conf.HiveConf;
- import org.apache.hadoop.hive.ql.Driver;
- import org.apache.hadoop.hive.ql.parse.ParseException;
- import org.apache.hadoop.hive.ql.parse.SemanticException;
- import org.springframework.beans.factory.annotation.Autowired;
- import org.springframework.stereotype.Service;
-
- import java.io.IOException;
- import java.sql.SQLException;
-
- @Service
- public class HiveService {
- @Autowired
- private HiveConf hiveConf;
-
- public void useHive() throws IOException, SQLException, ParseException, SemanticException {
- Driver driver = new Driver(hiveConf);
- driver.run("SHOW DATABASES");
- }
- }
其中,HiveConf
可以从Spring容器中自动注入。在这个例子中,使用Hive的Driver
执行了一条SHOW DATABASES
的SQL查询语句。