
前提条件: 成功安装了ZK,Hadoop,Mysql,JDK
并启动
ZK启动: /export/server/zookeeper/bin/zkServer.sh start
hadoop启动: start-all.sh //没有脚本就一个个启动
这一步应该不用做,装hadoop的时候就写过了
vim etc/hadoop/core-site.xml
hadoop.proxyuser.root.hosts
*
hadoop.proxyuser.root.groups
*
解压: tar zxvf apache-hive-3.1.2-bin.tar.gz
cd /export/server/apache-hive-3.1.2-bin/
rm -rf lib/guava-19.0.jar
cp /export/server/hadoop-3.3.0/share/hadoop/common/lib/guava-27.0-jre.jar ./lib/
思路: 删除掉hive中的guava文件,把hadoop的guava复制到hive中
cd /export/server/apache-hive-3.1.2-bin/conf
mv hive-env.sh.template hive-env.sh
vim hive-env.sh
# 粘贴到文件的最后
export HADOOP_HOME=/export/server/hadoop-3.3.0
export HIVE_CONF_DIR=/export/server/apache-hive-3.1.2-bin/conf
export HIVE_AUX_JARS_PATH=/export/server/apache-hive-3.1.2-bin/lib
文件不存在,直接创建一个即可
vim hive-site.xml
复制以下内容.
注意: 第三,四个标签中为 mysql 的用户名和密码,改成自己电脑上的.
javax.jdo.option.ConnectionURL
jdbc:mysql://node1:3306/hive3?createDatabaseIfNotExist=true&useSSL=false&useUnicode=true&characterEncoding=UTF-8
javax.jdo.option.ConnectionDriverName
com.mysql.jdbc.Driver
javax.jdo.option.ConnectionUserName
root
javax.jdo.option.ConnectionPassword
hadoop
hive.server2.thrift.bind.host
node1
hive.metastore.uris
thrift://node1:9083
hive.metastore.event.db.notification.api.auth
false
mysql-connector-java-5.1.32.jar
cd /export/server/apache-hive-3.1.2-bin/
bin/schematool -initSchema -dbType mysql -verbos
#初始化成功会在mysql中创建74张表
hdfs dfsadmin -safemode forceExit强制关闭hadoop fs -mkdir /tmp
hadoop fs -mkdir -p /user/hive/warehouse
hadoop fs -chmod g+w /tmp
hadoop fs -chmod g+w /user/hive/warehouse
一般不用第一代,用第二代
cd /export/server/apache-hive-3.1.2-bin/bin
nohup ./hive --service hiveserver2 &
cd /export/server/apache-hive-3.1.2-bin/bin
./beeline
!connect jdbc:hive2://node1:10000 //敲回车
输入账号: root
输入密码: 可以不用写, 直接敲回车即可. //恭喜各位, 登陆成功. 如果出现"拒绝连接", 等一会儿就好了.
