• Hive【Hive(二)DML】


     启动 hive 命令行:

    hive

    DML 数据操作

    1、数据导入

    1.1、向表中装载数据(load)

    语法:

    hive> load data [local] inpath '数据的path' [overwrite] into table student [partition (partcol1=val1,…)];
    

    (1)load data:表示加载数据
    (2)local:表示从本地加载数据到hive表;否则从HDFS加载数据到hive表
    (3)inpath:表示加载数据的路径
    (4)overwrite:表示覆盖表中已有数据,否则表示追加
    (5)into table:表示加载到哪张表
    (6)student:表示具体的表
    (7)partition:表示上传到指定分区 

    创建一张表student: 

    create table student(id string,name string) row format delimited fields terminated by '\t';

    注意:如果不切换数据库,默认使用的是 default 数据库,并且保存路径是hdfs:///user/hive/warehouse/student/ ;如果使用了 db_hive1 ,则保存路径为:hdfs:///user/hive/warehouse/db_hive1/student/

    1、加载本地文件到hive。
    load data local inpath '/opt/module/hive-3.1.2/datas/student.txt' into table default.student;

     HDFS 下出现了我们的文件。

    2、加载hdfs文件到hive。
    load data inpath ‘/user/careate/student.txt’ into table student;

    3、覆盖式导入:
    load data local inpath '/opt/module/hive-3.1.2/datas/student.txt' overwrite into table default.student;

    1.2、 通过查询语句向表中插入数据(Insert)

    1)创建一张表
    create table student1(id int, name string) row format delimited fields terminated by ‘\t’;
    2)基本模式插入数据
    insert into table student1 values(1011,‘ldx’),(1012,‘ysy’);
    3)根据查询结果插入数据
    1. insert into table student1
    2. select id, name from student where id < 1006;
    insert into 不会删除原表中的数据,只是追加到后面。 
    1. insert overwrite table student1
    2. select id, name from student where id < 1006;

    使用 insert overwrite 的话,原表中的数据被删除,被student 表中的数据覆盖。


    1.3、查询语句中创建表并加载数据(As Select)

    1. create table student3
    2. as select id,name from student;

    Hive 不论是创建表还是查询数据(除了select * 都会产生 mapreduce 任务),所以执行时间不会很快。


    1.4、创建时指定 location 来加载数据路径

    这种方法就是我们上一篇讲的建表语句中,通过 location 关键字来指定表的数据源(其实也变相指定了我们表的存储路径),我们建表时指定了数据源路径下文件的解析方法(比如以 '\t' 为分割符号)。

    1. create table if not exists student(
    2. id int,
    3. name string
    4. )
    5. row format delimited
    6. fields terminated by '\t'
    7. location 'hdfs:///user/hive/warehouse/student';

    该表一建立,我们在 hdfs 下的 /user/hive/warehouse/student/ 目录下放到文件就变成了表内容的源文件,解析方法就是以 '\t' 为分隔符。

    1.5、Import 数据到指定 Hive表

    import table student from '\user\hive\warehouse\export\student';


    数据导出

    2.1、 Insert 导出

    1)将查询结果导出到本地
    1. -- 导出student表到linux本地目录
    2. insert overwrite local directory '/opt/module/hive-3.1.2/datas'
    3. select * from student;
    4. -- 导出结果
    5. -- 1001lyh
    6. -- 1002mht
    7. -- 1003lj
    8. -- 1004my
    2)将查询结果格式化后导出到本地
    1. -- 格式化后导出到linux本地目录
    2. insert overwrite local directory '/opt/module/hive-3.1.2/datas/export/student'
    3. row format delimited fields terminated by '\t'
    4. select * from student;
    5. -- 格式化导出结果
    6. -- 1001 lyh
    7. -- 1002 mht
    8. -- 1003 lj
    9. -- 1004 my

    导出结果:

     

     

     3)将查询结果格式化后导出到 HDFS(少了 local 关键字)
    1. -- 将查询结果格式化导出到 hdfs
    2. insert overwrite directory '/user/hive/warehouse/export/student'
    3. row format delimited fields terminated by '\t'
    4. select * from student1;

            注意:insert 导出,导出的目录不用自己提前创建,hive会帮我们自动创建。但是因为是 overwrite ,所以要小心导出的目录中原本存不存在数据,以免覆盖造成误删。

    导出结果:


    2.2、Hadoop 命令导出到本地

    使用hadoop命令将我们Hive表的hdfs目录下的文件导出到本地(linux)。

    hadoop fs -get /user/hive/warehouse/student/student.txt /opt/module/hive/datas/export/student.txt

    2.3、Hive Shell 命令导出

    这里不需要进入 hive 命令行,因为我们使用了 hive -e

    hive -e 'select * from default.stduent;' >> /opt/module/hive/datas/export/student1.txt

    导出结果:

             我们发现,导出的 studen2.txt 中,包含了大量的日志信息,必须通过配置日志等级才能省去它,个人感觉还是不用这种方法为好。

    2.4、export 导出到 HDFS

    1. -- export 导出到hdfs
    2. export table student1 to
    3. '/user/hive/warehouse/export/student1';

    导出的结果是一个 student1 目录,下面包含了两个

    其中,_metadata 是元数据信息,而 data 是一个目录,下面存放着名为 000000_0 的文件,打开是我们该 Hive 表的内容。

    1.5、Sqoop 导出

    还没学 Sqoop ,以后再做更新。

  • 相关阅读:
    8位二进制cpu的设计和制作
    Linux——MySQL安装的几种方式
    向量数据库是如何检索的?基于 Feder 的 HNSW 可视化实现
    【干货】RPA+AI入门必须知道的39个名词
    【算法题】2856. 删除数对后的最小数组长度
    23种设计模式-原型设计模式介绍加实战代码
    搭建搜题公众号【最新】
    Python接口自动化测试数据驱动DDT使用实战
    java毕业设计的影视资讯管理系统mybatis+源码+调试部署+系统+数据库+lw
    基于物联网的教室人数检测系统-设计说明书
  • 原文地址:https://blog.csdn.net/m0_64261982/article/details/133296868