• 大数据从入门到精通(超详细版)之HiveServer2的使用


    前言

    嗨,各位小伙伴,恭喜大家学习到这里,不知道关于大数据前面的知识遗忘程度怎么样了,又或者是对大数据后面的知识是否感兴趣,本文是《大数据从入门到精通(超详细版)》的一部分,小伙伴们如果对此感谢兴趣的话,推荐大家按照大数据学习路径开始学习哦。

    以下就是完整的学习路径哦。

    ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓

    大数据从入门到精通文章体系!!!!!!!!!!!!!!

    ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑

    推荐大家认真学习哦!!!

    本篇文章就详细学习一下Hive的实际操作.


    在这里插入图片描述

    Hive Shell操作

    操作步骤

    在Hive的安装目录当中执行:

    bin/hive
    
    • 1

    进入到hive shell界面, 在界面当中书写sql语句

    创建表:

    create table student(id int,name string,gender string);
    
    • 1

    此时没有指定数据库, 会默认创建表到当前数据库

    插入数据:

    insert into student values(1,'小明','男');
    insert into student values(2,'李四','男');
    
    • 1
    • 2

    在这里插入图片描述

    此时就是自动将sql自动转为一个个map reduce任务, 在yarn中也能看到

    在这里插入图片描述

    数据存储位置

    在hdfs文件当中的user/hive/warehouse目录下存放着, 这是默认的存储路径

    #查看此文件夹下的路径
    hdfs dfs -ls /user/hive/warehouse
    #查看此文件下的所有内容
    hdfs dfs -cat /user/hive/warehouse/student/*
    
    • 1
    • 2
    • 3
    • 4

    在这里插入图片描述

    在这里插入图片描述

    元数据存储着哪些内容呢

    库名,表明, 字段民等等数据,存储在mysql当中 , 以及这些元数据在hdfs中对应的存储节点有哪些

    select * from TBLS;
    select * from DBS;
    
    • 1
    • 2

    在这里插入图片描述

    Hive客户端操作

    介绍与启动

    在启动Hive的时候,除了必备的MetaStore服务外 , 我们前面还有提到过2种方式使用HIve :

    • bin/hive , 就是Hive Shell的客户端 , 直接写SQL

    • bin/hive --service hiveserver2

      此时后台执行脚本 : nohup bin/hive --service hiveserver2 >> logs/hiveserver2.log 2>&1 &

      bin/hive --service metastore , 启动的是元数据管理服务

      bin/hive --service hiveserver2 , 启动的是hiveserver2服务

      所以 , HiveServer2其实就是Hive内置的一个ThriftServer服务 , 提供Thrift端口供其他客户端连接

      这时可以连接ThrifServer的客户端有 :

      • Hive内置的beeline客户端工具(命令行形式)
      • 第三方的图形化工具 , 如DataGrip这些

      下面就是它们之间的关系.

      在这里插入图片描述

    话不多说, 我们开始实际操作

    在安装hive的服务器上, 首先启动metastore服务 , 然后启动hiveserver2服务

    #启动metastore服务
    nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &
    #启动hiveserver2服务
    nohup bin/hive --service hiveserver2 >> logs/hiveserver2.log 2>&1 &
    
    • 1
    • 2
    • 3
    • 4

    在这里插入图片描述

    可以看到成功启动

    #查看hiveserver2 的日志
    tail -f logs/hiveserver2.log
    
    • 1
    • 2

    在这里插入图片描述

    没有出现报错信息, 即启动成功

    Beeline连接

    在hive的服务器上可以直接使用beeline客户端进行连接 , Beeline是JDBC的客户端 , 通过JDBC和HiveServer2进行通信, 协议的地址是 :

    jdbc:hive2://node:10000  
    
    • 1

    这个10000端口是hiveserver2默认向外开发的端口

    #进入beeline的连接界面
    bin/beeline
    #开始连接
    !connect jdbc:hive2://node:10000
    #接下来会开始输入hive的启动用户名密码,然后就可以开始连接了
    
    • 1
    • 2
    • 3
    • 4
    • 5

    在这里插入图片描述

    show databases;   #输入sql语句展示库数据
    
    ##可以看出与原生的hive连接差别还是很大的
    
    • 1
    • 2
    • 3

    这是beeline客户端界面

    在这里插入图片描述

    这时hive的原生界面

    在这里插入图片描述

    DataGrip连接

    这种第三方的客户端页面美观大方 , 操作简洁 , 更重要的是sql编辑环境优雅 , sql语法智能提示补全 , 关键字高亮 , 查询结果智能显示 , 按钮操作大于命令操作

    接下来是具体的连接步骤

    1. 打开DataGrip

      在这里插入图片描述

    2. 选择Apach Hive进行连接

      在这里插入图片描述

    3. 填写相关信息

      在这里插入图片描述

    4. 此时已经连接上了

      在这里插入图片描述

    5. 接下来的操作就跟平常操作mysql一样了

      在这里插入图片描述
      本就就结束了如何使用Hive里面的连接工具 : hiveserver2的使用 , 接下来就介绍如何使用hive的具体操作.

  • 相关阅读:
    如何配置Header Editor
    CDH大数据平台 ModuleNotFoundError: No module named ‘_sqlite3‘
    PyFluent入门之旅(2)基本操作
    市场最火的模式原来是它,不少企业家都选择错了,人均消费商模式——让某宝某东等大主流平台的客户,成为你的直接用户
    20220910编译ITX-3588J的Buildroot的系统2a(编译Kernel)
    这可是全网网工基础知识最详细的整理,没有之一
    二、GRE(Generic Routing Encapsulation,通用路由封装协议)
    Spring Boot 项目的常用注解与依赖
    Matlab|考虑可再生能源消纳的电热综合能源系统日前经济调度模型
    分享几个可以免费使用的GPT网站吧
  • 原文地址:https://blog.csdn.net/tyuiop321/article/details/132631040