Sqoop整合HBase

sqoop是一个数据导入导出的工具,可以将关系型数据库当中的数据导入到大数据平台来,也可以将大数据平台当中的数据导入到关系型数据库当中去 我们也可以通过sqoop导入数据到hbase或者从hbase当中导出数据
需求一:将mysql表当中的数据导入到HBase当中来
第一步:修改sqoop配置文件
sqoop导入导出HBase的数据,需要修改sqoop的配置文件sqoop-env.sh
cd /export/servers/sqoop-1.4.6-cdh5.14.0/conf vim sqoop-env.sh

#Set path to where bin/hadoop is available
export HADOOP_COMMON_HOME=/export/servers/hadoop-2.6.0-cdh5.14.0

#Set path to where hadoop-*-core.jar is available
export HADOOP_MAPRED_HOME=/export/servers/hadoop-2.6.0-cdh5.14.0

#set the path to where bin/hbase is available
export HBASE_HOME=/export/servers/hbase-1.2.0-cdh5.14.0

#Set the path to where bin/hive is available
export HIVE_HOME=/export/servers/hive-1.1.0-cdh5.14.0

第二步:在mysql当中创建数据库以及数据库表并插入数据
创建数据库表
CREATE DATABASE IF NOT EXISTS library;
USE library;
CREATE TABLE book(
id INT(4) PRIMARY KEY NOT NULL AUTO_INCREMENT,
NAME VARCHAR(255) NOT NULL,
price VARCHAR(255) NOT NULL);

插入数据
==INSERT INTO book(NAME, price) VALUES(‘Lie Sporting’, ‘30’);
INSERT INTO book (NAME, price) VALUES(‘Pride & Prejudice’, ‘70’);
INSERT INTO book (NAME, price) VALUES(‘Fall of Giants’, ‘50’); ==
第三步:将mysql表当中的数据导入HBase表当中去
执行以下命令,将mysql表当中的数据导入到HBase当中去

bin/sqoop import
–connect jdbc:mysql://192.168.1.5:3306/library
–username root
–password admin
–table book
–columns “id,name,price”
–column-family “info”
–hbase-create-table
–hbase-row-key “id”
–hbase-table “hbase_book”
–num-mappers 1
–split-by id

第四步:HBase当中查看表数据
进入hbase的shell客户端,通过scan查看数据
hbase(main):057:0> scan 'hbase_book' ROW COLUMN+CELL 1 column=info:name, timestamp=1550634017823, value=Lie Sporting 1 column=info:price, timestamp=1550634017823, value=30 2 column=info:name, timestamp=1550634017823, value=Pride & Prejudice 2 column=info:price, timestamp=1550634017823, value=70 3 column=info:name, timestamp=1550634017823, value=Fall of Giants 3 column=info:price, timestamp=1550634017823, value=50
需求二:将HBase当中的数据导出到mysql当中来
将hbase_book这张表当中的数据导出到mysql当中来
=注意:sqoop不支持我们直接将HBase当中的数据导出,所以我们可以通过以下的转换进行导出
Hbase→hive外部表→hive内部表→通过sqoop→mysql

第一步:创建hive外部表
进入hive客户端,创建hive外部表,映射hbase当中的hbase_book表
CREATE EXTERNAL TABLE course.hbase2mysql (id int,name string,price int) STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' WITH SERDEPROPERTIES ( "hbase.columns.mapping" = ":key,info:name, info:price" ) TBLPROPERTIES( "hbase.table.name" = "hbase_book", "hbase.mapred.output.outputtable" = "hbase2mysql");
第二步:创建hive内部表并将外部表数据插入到内部表当中来
进入hive客户端,执行以下命令,创建hive内部表,并将外部表的数据插入到hive的内部表当中来
CREATE TABLE course.hbase2mysqlin(id int,name string,price int);
第三步:外部表数据插入内部表
进入hive客户端执行以下命令,将hive外部表数据插入到hive内部表当中来
insert overwrite table course.hbase2mysqlin select * from course.hbase2mysql;
第四步:清空mysql表数据
进入mysql客户端,执行以下命令,将mysql表数据清空
TRUNCATE TABLE book;
第五步:执行sqoop导出hive内部表数据到
sqoop export -connect jdbc:mysql://192.168.1.5:3306/library -username root -password admin -table book -export-dir /user/hive/warehouse/course.db/hbase2mysqlin --input-fields-terminated-by '\001' --input-null-string '\\N' --input-null-non-string '\\N';

发布了93 篇原创文章 · 获赞 288 · 访问量 18万+

猜你喜欢

转载自blog.csdn.net/qq_45765882/article/details/103710893