• Sqoop实操案例-互联网招聘数据迁移


    🥇🥇【大数据学习记录篇】-持续更新中~🥇🥇


    个人主页beixi@
    本文章收录于专栏(点击传送):【大数据学习】

    💓💓持续更新中,感谢各位前辈朋友们支持学习~💓💓

    上一篇文章写到了Sqoop的安装与验证,这篇文章接着上篇文章延伸Sqoop迁移数据的案例操作,如果Sqoop没有安装成功的小伙伴们可以参考我上一篇文章:大数据组件Sqoop-安装与验证
    在这里插入图片描述

    1.环境介绍

    本次用到的环境有:
    Oracle Linux 7.4
    Hadoop 2.7.4
    mysql
    sqoop

    2.启动hadoop环境

    1.打开命令窗口,启动HDFS平台。

    start-all.sh
    
    • 1

    在这里插入图片描述

    2.查看master上HDFS守护进程,注意:依据系统不同,实际显示可能与截图有出入,只要红色框中HDFS所示4个进程存在,即是正确

    jps
    
    • 1

    在这里插入图片描述

    3.互联网招聘数据迁移案例

    1.进入Linux命令窗口,登录mysql,我这里账号密码都是root

    mysql -uroot -proot
    
    • 1

    在这里插入图片描述

    2.构建源数据库

    create database job_db character set 'utf8' collate 'utf8_general_ci';
    
    • 1

    在这里插入图片描述

    3.查看数据库

    show databases;
    
    • 1

    在这里插入图片描述

    4.使用job_db数据库

    use job_db;
    
    • 1

    在这里插入图片描述

    5.原始job.sql文件存储在/root/experiment/datas/job/job.sql,将原始数据导入mysql,构建原始表数据

    source /root/experiment/datas/job/job.sql
    
    • 1

    在这里插入图片描述

    6.查看导入结果

    show tables;
    
    • 1

    在这里插入图片描述

    7.查看表数据

    select * from position;
    
    • 1

    在这里插入图片描述

    8.退出mysql窗口

    quit;
    
    • 1

    9. 进入sqoop根目录

    cd /opt/sqoop
    
    • 1

    在这里插入图片描述

    10.使用命令列出主机所有数据库

    bin/sqoop list-databases --connect jdbc:mysql://localhost:3306/ --username root --password root 
    
    • 1

    在这里插入图片描述

    11.用命令列出job_db数据库中所有的数据表

    bin/sqoop list-tables --connect jdbc:mysql://localhost:3306/job_db --username root --password root
    
    • 1

    在这里插入图片描述

    12.使用命令将数据库中的表导入到HDFS指定目录中

    bin/sqoop import  --connect jdbc:mysql://localhost:3306/job_db --username root --password root --delete-target-dir --table position  --target-dir /sqoop/position --m 1 
    
    • 1

    在这里插入图片描述
    在这里插入图片描述

    13.查看/sqoop目录下的文件

    hdfs dfs -ls -R /sqoop
    
    • 1

    在这里插入图片描述

    14.查看导入到HDFS的文件内容

    hdfs dfs -cat /sqoop/position/part-m-00000
    
    • 1

    在这里插入图片描述
    在这里插入图片描述

    15.再次将数据库中的表数据导入HDFS中,此次采用Tab制表格将字段进行分割

    bin/sqoop import  --connect jdbc:mysql://localhost:3306/job_db --username root --password root --delete-target-dir --table position  --target-dir /sqoop/position2 --m 1 --fields-terminated-by '\t' 
    
    • 1

    在这里插入图片描述
    在这里插入图片描述

    16.查看HDFS中sqoop目录下的内容

    hdfs dfs -ls -R /sqoop
    
    • 1

    在这里插入图片描述

    17.查看导入到HDFS的文件内容

    hdfs dfs -cat /sqoop/position2/part-m-00000
    
    • 1

    在这里插入图片描述
    在这里插入图片描述
    至此,互联网招聘数据迁移案例实验到到此结束,如果本篇文章对你有帮助记得点赞收藏+关注~

  • 相关阅读:
    第十章《日期与时间》第3节:Java8新日期时间系统简介
    激光焊接汽车尼龙塑料配件透光率测试仪
    【无标题】
    如何评判程序员的好坏和程序员成长的各个阶段
    青翼科技基于VITA57.1的16路数据收发处理平台产品手册
    ElasticSearch~副本~分片
    C#一些高级语法
    怎么把产品内容做得更吸引用户?
    zabbix最新漏洞,可绕过认证登陆!
    《视觉 SLAM 十四讲》V2 第 11 讲 回环检测【消除累积误差】
  • 原文地址:https://blog.csdn.net/beixige/article/details/132628270