Sqoop(发音:skup)是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql、postgresql…)间进行数据的传递,可以将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。

Sqoop项目开始于2009年,最早是作为Hadoop的一个第三方模块存在,后来为了让使用者能够快速部署,也为了让开发人员能够更快速的迭代开发,Sqoop独立成为一个Apache项目。

下面我们进一步了解Sqoop安装部署过程,以及如何从Mysql数据库导入数据到hive。
一.前期准备
1.1 Hadoop

版本:Hadoop 2.6.5

安装:Hadoop集群安装和部署详解
1.2 Mysql

版本:5.6.33 MySQL Community Server (GPL)
1.3 Mysql驱动包

版本:mysql-connector-java-5.1.40-bin.jar
1.4 Hive

版本:apache-hive-2.1.1-bin

安装:《Hive安装和部署详解》
1.5 Sqoop安装包

版本:sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz
二.Sqoop安装部署
2.1 Sqoop部署

#定位
cd /opt/software
#解压
tar -zxvf sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz
#复制sqoop到/usr/local/sqoop
cp -r sqoop-1.4.6.bin__hadoop-2.0.4-alpha /usr/local/sqoop

2.2 Mysql驱动包

把1.3中的mysql驱动包放置到$SQOOP_HOME\lib目录

三.Sqoop配置
3.1 Sqoop环境变量配置

vi /etc/profile
#sqoop
export SQOOP_HOME=/usr/local/sqoop
export PATH=$PATH:$SQOOP_HOME/bin
#重新编译profile
source /etc/profile

3.2 sqoop-env.sh配置

#定位
cd /usr/local/sqoop/conf
#创建sqoop-env.sh文件
cp -r sqoop-env-template.sh sqoop-env.sh
#配置sqoop-env.sh
vi sqoop-env.sh
—————————————————————
# Set Hadoop-specific environment variables here.

#Set path to where bin/hadoop is available
export HADOOP_COMMON_HOME=/usr/local/hadoop

#Set path to where hadoop-*-core.jar is available
export HADOOP_MAPRED_HOME=/usr/local/hadoop

#set the path to where bin/hbase is available
#export HBASE_HOME=

#Set the path to where bin/hive is available
export HIVE_HOME=/usr/local/hive

#Set the path for where zookeper config dir is

注意:根据实际路径配置HADOOP_COMMON_HOME,HADOOP_MAPRED_HOME,HIVE_HOME
3.3 sqoop-site.xml配置

#创建sqoop-site.xml
cp -r sqoop-site-template.xml sqoop-site.xml

 

四.Mysql数据导入Hive
4.1 启动dfs+yarn

#定位
cd /usr/local/hadoop
#启动dfs+hive
sbin/start-all.sh

4.2 测试Sqoop
sqoop help
Available commands:
codegen Generate code to interact with database records
create-hive-table Import a table definition into Hive
eval Evaluate a SQL statement and display the results
export Export an HDFS directory to a database table
help List available commands
import Import a table from a database to HDFS
import-all-tables Import tables from a database to HDFS
import-mainframe Import datasets from a mainframe server to HDFS
job Work with saved jobs
list-databases List available databases on a server
list-tables List available tables in a database
merge Merge results of incremental imports
metastore Run a standalone Sqoop metastore
version Display version information

 

4.3 Mysql数据导入Hive测试
4.3.1 Mysql数据库新建表

新建表T_USER,并插入测试数据

4.3.2 Hive中新建表,并制定存放HDFS目录

create table IF NOT EXISTS T_USER
(
id BIGINT COMMENT ‘id’,
name STRING COMMENT ‘name’,
password STRING COMMENT ‘password’

) COMMENT ‘T_USER’
ROW format delimited fields terminated BY ‘\001’ LOCATION ‘/usr/hive/warehouse/hivetest.t_user’;

4.3.3 Sqoop中查看Mysql数据库

sqoop list-databases –connect jdbc:mysql://192.168.32.128:3306/ –username root –password root

4.3.4 Sqoop中查看Mysql数据库表

sqoop list-tables –connect jdbc:mysql://192.168.32.128:3306/hive –username root –password root

4.3.5 Sqoop导入Mysql数据到Hive

sqoop import -m 1 –connect jdbc:mysql://192.168.32.128:3306/hive –username root –password root –table t_user –hive-import –hive-overwrite –hive-table hivetest.t_user –hive-drop-import-delims

4.3.6 查看Mysql导入的数据
4.3.6.1 hive中查看

 

对比:与Mysql中表T_USER数据一致。
4.3.6.2 hadoop中查看

至此,以上为本文所有内容。

————————————————
版权声明:本文为CSDN博主「IT狗探求」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/a123demi/article/details/72742553