Sqoop,一个用于Hadoop和结构化数据存储之间进行高效传输大批量数据的工具:
将数据从关系型数据库管理系统导入到Hadoop系统中
将数据从Hadoop系统中抽取并导出到关系型数据库。
Sqoop的核心设计思想是利用Map Reduce加快数据传输速度。
Sqoop的重要关键词
通过Sqoop加不同参数可以执行导入导出,通过sqoop help可以产看常见的命令行

Sqoop运行的时候不需要启动后台进程,直接执行Sqoop命令加参数即可。
sqoop list-databases \
--connect jdbc:mysql://localhost:3306 \
--username root \
--password 123456;
文件 config.conf
list-databases
--connect
jdbc:mysql://localhost:3306
--username
root
--password
123456
命令:
sqoop --options-file config.conf
sqoop import \
--connect jdbc:mysql://database.example.com/databaseName \
--username xxxx \
--password xxxxxx;
#指定用户名和密码来连接数据库
sqoop import \
--connect jdbc:mysql://localhost:3306/mysql \
--username root \
--password 123456;
sqoop list-tables \
--connect jdbc:mysql://localhost:3306/mysql \
--username root \
--password 123456;
数据在Linux下的Mysql数据
在本地MySql数据库中新建一个testdb数据库,建表test表并写入数据
使用--table参数可以指定具体的表导入到HDFS,譬如用 --table test,默认情况下是全部字段导入,如下:
sqoop import \
--connect jdbc:mysql://localhost:3306/testdb \
--username root \
--password 123456 \
--table test \
--target-dir hdfs://localhost:9820/sqoopdata/test1 \
--delete-target-dir
#将localhost改为IP地址
使用hdfs的命令查询结构
hdfs dfs -cat /sqoopdata/test1/par*
想要导入某几列,可以使用--columns,如下:
sqoop import \
--connect jdbc:mysql://localhost:3306/testdb \
--username root \
--password 123456 \
--table test \
--columns 'id,name' \
--target-dir hdfs://localhost:9820/sqoopdata/test2 \
--delete-target-dir
在导入表的时候,也可以通过指定where条件来导入,具体参数使用 --where,譬如要导入的记录,可以用下面参数:
sqoop import \
--connect jdbc:mysql://localhost:3306/testdb \
--username root \
--password 123456 \
--table test \
--columns 'id,name' \
--where 'id=01' \
--target-dir hdfs://localhost:9820/sqoopdata/test2 \
--delete-target-dir
Sqoop可以通过自定义的sql来进行导入,通过--query 参数来进行导入,这样就最大化的用到了Sql的灵活性.如下:
sqoop import --connect jdbc:mysql://localhost:3306/testdb \
--username root --password 123456 \
--query 'select id,name,age from test WHERE id=01 and $CONDITIONS' \
--target-dir hdfs://localhost:9820/sqoopdata/test2 \
--delete-target-dir \
--split-by id \
-m 1
#表没有主键,使用--split-by指定执行split的字段
#表没有主键,需要指定map task的个数为1才能执行
在通过--query来导入数据时,必须要指定--target-dir
示例代码:
sqoop import --connect jdbc:mysql://localhost:3306/testdb \
--username root \
--password 123456 \
--table test \
--hive-import \
--hive-overwrite \
--hive-table "test3" \
--hive-database Testdb \
-m 1
sqoop import --connect jdbc:mysql://localhost:3306/testdb \
--username root --password 123456 \
--table test \
--delete-target-dir \
--target-dir hdfs://localhost:9820/sqoopdata/test \
--null-string '\\N' \
--null-non-string '0'
-null-string '\\N' ## 遇到空字符串会填充\N字符
--null-non-string '0' # 遇到空数字会填充0