• 第1关:Hive的安装与配置


    为了完成本关任务,你需要掌握: 1.Hive的基本安装; 2.Mysql的安装与设置; 3.Hive 的配置。

    注意:本关实训Hive的安装与配置建立在Hadoop已安装配置好的情况下。

    Hive 的基本安装

     官网  下载Hive二进制包,不过这里你无须再从网上下载,我已经帮你下载好了放在/opt目录下。

    mysql安装包链地: MySQL :: Begin Your Download

    hive安装包链地: https://pan.baidu.com/s/1YRkPO6wpodqS9nPNAQnsJA 提取码:gck1

    • 进入/opt目录,解压apache-hive-3.1.0-bin.tar.gz到该目录下,并将解压的文件重命名为hive
    1. cd /opt
    2. tar -zxvf apache-hive-3.1.0-bin.tar.gz
    3. mv apache-hive-3.1.0-bin hive
    • 设置环境变量,编辑vi /etc/profile,在末尾添加以下两行代码;
    1. export HIVE_HOME=/opt/hive
    2. export PATH=$HIVE_HOME/bin:$PATH
    • source /etc/profile使环境生效;
    • 查看hive是否安装成功:
      hive --version。

    出现hive版本就说明安装成功,但是可以看到其中有一些警告信息,是由于包的冲突引起的。我们只需删除掉引起冲突的包即可:

    rm /opt/hive/lib/log4j-slf4j-impl-2.10.0.jar。

    Mysql 的安装与设置

    平台已安装MySQL数据库,同学们在本地没有安装可以采用以下命令进行安装:

    1. apt-get install mysql-server #安装mysql服务
    2. apt-get install mysql-client #安装mysql客户端
    3. apt-get install libmysqlclient-dev #安装相关依赖环境

    注意:安装过程中会提示设置密码什么的,不要忘了设置。

    安装完成之后可以使用如下命令来检查是否安装成功。

    netstat -tap | grep mysql

    通过上述命令检查之后,如果看到有MySQLsocket处于listen 状态则表示安装成功。

    Hive需要数据库来存储metastore的内容,因此我们需要配置一下MySQL数据库。

    • 下载mysql驱动;

      我已经帮你下载好放在/opt目录下,进入该目录并进行以下操作:

    1. tar -zxvf mysql-connector-java-5.1.45.tar.gz
    2. cd mysql-connector-java-5.1.45
    3. cp mysql-connector-java-5.1.45-bin.jar /opt/hive/lib/

    接下来介绍MySQLHive做的设置。

    • 使用root用户登录MySQL数据库;
    mysql -uroot -p123123 -h127.0.0.1
    • 创建数据库实例hiveDB
    create database hiveDB;
    • 创建用户bee,密码为123123
    create user 'bee'@'%' identified by '123123';
    • 授权用户bee拥有数据库实例hiveDB的所有权限;
    grant all privileges on hiveDB.* to 'bee'@'%' identified by '123123';
    • 刷新系统权限表。
    flush privileges;

    Hive 的配置

    /opt/hive/conf目录下,修改hive-site.xmlhive-env.sh两个文件。

    hive-site.xml

    hive-site.xml保存Hive运行时所需要的相关配置信息。

    • 如果目录下没有该文件,我们直接创建一个:vi hive-site.xml,将以下内容复制到其中(按i进入编辑模式后再进行粘贴)。
    1. <?xml version="1.0" encoding="UTF-8" standalone="no"?>
    2. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
    3. <configuration>
    4. <!-- WARNING!!! This file is auto generated for documentation purposes ONLY! -->
    5. <!-- WARNING!!! Any changes you make to this file will be ignored by Hive. -->
    6. <!-- WARNING!!! You must make your changes in hive-site.xml instead. -->
    7. <!-- Hive Execution Parameters -->
    8. <property>
    9. <name>hive.metastore.warehouse.dir</name>
    10. <value>/opt/hive/warehouse</value>
    11. </property>
    12. <property>
    13. <name>hive.exec.scratchdir</name>
    14. <value>/opt/hive/tmp</value>
    15. </property>
    16. <property>
    17. <name>hive.querylog.location</name>
    18. <value>/opt/hive/logs</value>
    19. </property>
    20. <property>
    21. <name>hive.server2.thrift.port</name>
    22. <value>10000</value>
    23. </property>
    24. <property>
    25. <name>hive.server2.thrift.bind.host</name>
    26. <value>localhost</value>
    27. </property>
    28. <property>
    29. <name>hive.server2.enable.doAs</name>
    30. <value>true</value>
    31. </property>
    32. <property>
    33. <name>hive.session.id</name>
    34. <value>false</value>
    35. </property>
    36. <property>
    37. <name>hive.session.silent</name>
    38. <value>false</value>
    39. </property>
    40. <property>
    41. <name>javax.jdo.option.ConnectionURL</name>
    42. <value>jdbc:mysql://localhost:3306/hiveDB?createDatabaseIfNotExist=true</value>
    43. </property>
    44. <property>
    45. <name>javax.jdo.option.ConnectionDriverName</name>
    46. <value>com.mysql.jdbc.Driver</value>
    47. </property>
    48. <property>
    49. <name>javax.jdo.option.ConnectionUserName</name>
    50. <value>bee</value>
    51. <!-- 这里是之前设置的数据库 -->
    52. </property>
    53. <property>
    54. <name>javax.jdo.option.ConnectionPassword</name>
    55. <!-- 这里是数据库密码 -->
    56. <value>123123</value>
    57. </property>
    58. </configuration>

    完成后,在命令行模式(按 Esc),输入:wq保存退出。

    hive-env.sh

    由于Hive是一个基于Hadoop分布式文件系统的数据仓库架构,主要运行在 Hadoop分布式环境下,因此,需要在文件hive-env.sh中指定Hadoop相关配置文件的路径,用于Hive访问HDFS(读取fs.defaultFS属性值)和 MapReduce(读取mapreduce.jobhistory.address属性值)等Hadoop 相关组件。

    • 如果目录下没有该文件,我们就以模板复制一个
    1. cp hive-env.sh.template hive-env.sh
    2. vi hive-env.sh
    • 打开文件,在文件末尾添加变量指向 Hadoop 的安装路径:
    HADOOP_HOME=/usr/local/hadoop 

     #在本地环境安装,要根据自己hadoop的路径来确定

    至此Hive配置完成。

    第一次启动Hive前还需要执行初始化命令:

    schematool -dbType mysql -initSchema。

     

    编程要求

    • 根据上述步骤完成Hive的安装与配置
    • 然后在命令行start-dfs.sh启动 Hadoop
    • 点击测评,验证hive是否成功安装配置。

  • 相关阅读:
    UE5 官方案例Lyra 全特性详解 9.蓝图消息系统
    MySQL高级篇03【逻辑架构】
    Flutter 在 windows 上的开发环境设置
    练习题59:显示实现接口
    Linux中swap几乎耗尽,但物理内存还有空余的现象
    应用性能监控:SkyWalking
    C++学习笔记(五)——类和对象(下)
    wind版本elasticdump执行报错 unexpected token ‘ in json at
    【立创机械狗从0到成品PCB画图总结】
    去掉Egde浏览器选择文本弹出的搜索小按钮
  • 原文地址:https://blog.csdn.net/qq_61604164/article/details/128013098