• Sqoop (一) --------- Sqoop 介绍



    一、Sqoop 简介

    Sqoop是一款开源的工具,主要用于在 Hadoop(Hive) 与传统的数据库 (mysql、postgresql…) 间进行数据的传递,可以将一个关系型数据库 (例如:MySQL、Oracle、Postgres等) 中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。
    Sqoop 项目开始于2009年,最早是作为 Hadoop 的一个第三方模块存在,后来为了让使用者能够快速部署,也为了让开发人员能够更快速的迭代开发,Sqoop独立成为一个Apache项目。Sqoop2的最新版本是1.99.7。请注意,2与1不兼容,且特征不完整,它并不打算用于生产部署。

    二、Sqoop 原理

    将导入或导出命令翻译成mapreduce程序来实现。在翻译出的mapreduce中主要是对inputformat和outputformat进行定制。

    三、Sqoop 安装

    安装Sqoop的前提是已经具备Java和Hadoop的环境。

    1. 下载并解压

    A、下载地址:http://mirrors.hust.edu.cn/apache/sqoop/1.4.6/

    B、上传安装包 sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz 到虚拟机中

    C、解压 Sqoop 安装包到指定目录,如:

    $ tar -zxf sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz -C /opt/module/
    
    • 1

    2. 修改配置文件

    Sqoop 的配置文件与大多数大数据框架类似,在 sqoop 根目录下的 conf 目录中。

    A、重命名配置文件

    $ mv sqoop-env-template.sh sqoop-env.sh
    
    • 1

    B、修改配置文件

    sqoop-env.sh
    export HADOOP_COMMON_HOME=/opt/module/hadoop-2.7.2
    export HADOOP_MAPRED_HOME=/opt/module/hadoop-2.7.2
    export HIVE_HOME=/opt/module/hive
    export ZOOKEEPER_HOME=/opt/module/zookeeper-3.4.10
    export ZOOCFGDIR=/opt/module/zookeeper-3.4.10
    export HBASE_HOME=/opt/module/hbase
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    3. 拷贝JDBC驱动

    拷贝 jdbc 驱动到 sqoop 的 lib 目录下,如:

    $ cp mysql-connector-java-5.1.27-bin.jar /opt/module/sqoop-1.4.6.bin__hadoop-2.0.4-alpha/lib/
    
    • 1

    4. 验证Sqoop

    我们可以通过某一个 command 来验证sqoop配置是否正确:

    $ bin/sqoop help
    
    • 1

    出现一些Warning警告(警告信息已省略),并伴随着帮助命令的输出:

    Available commands:
      codegen            Generate code to interact with database records
      create-hive-table     Import a table definition into Hive
      eval               Evaluate a SQL statement and display the results
      export             Export an HDFS directory to a database table
      help               List available commands
      import             Import a table from a database to HDFS
      import-all-tables     Import tables from a database to HDFS
      import-mainframe    Import datasets from a mainframe server to HDFS
      job                Work with saved jobs
      list-databases        List available databases on a server
      list-tables           List available tables in a database
      merge              Merge results of incremental imports
      metastore           Run a standalone Sqoop metastore
      version            Display version information
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15

    5. 测试 Sqoop 是否能够成功连接数据库

    $ bin/sqoop list-databases --connect jdbc:mysql://hadoop102:3306/ --username root --password 000000
    出现如下输出:
    information_schema
    metastore
    mysql
    oozie
    performance_schema
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
  • 相关阅读:
    @Component可以和@Bean 用在同一个类上吗?
    python基于PHP+MySQL的校园帮忙领取快递平台
    微机原理练习(数制,CPU管脚)
    flutter是什么
    Opengl绘制三角形
    promisify 是 Node.js 标准库 util 模块中的一个函数
    论文解读(DCRN)《Deep Graph Clustering via Dual Correlation Reduction》
    IDEA热部署插件JRebel and XRebel
    前端学习笔记|CSS基础
    Web Sessions Installation
  • 原文地址:https://blog.csdn.net/m0_51111980/article/details/126312576