hive表数据导入mysql出错

hive表数据导入mysql出错


在使用sqoop将hive表数据导入到mysql时发生如下错误:
命令:
sqoop export --connect jdbc:mysql://192.168.111.137:3306/test --username root --password 123456 --export-dir /user/hive/warehouse/test.db/score --table score --input-fields-terminated-by ','

ERROR mapreduce.ExportJobBase: Export job failed!
ERROR tool.ExportTool: Error during export:
Export job failed!
在这里插入图片描述
查找application_id,查看错误日志
在这里插入图片描述使用: yarn logs -applicationId application_id 查看log日志
在这里插入图片描述
分割符问题:hadoop默认是 \001,将分割符换为 \001 在执行即可

hive安装

Hive官网地址
http://hive.apache.org/

把 apache-hive-3.1.2-bin.tar.gz上传到Linux的/export/software目录下
在这里插入图片描述

修改apache-hive-3.1.2-bin.tar.gz的名称为hive

修改/etc/profile,添加环境变量

配置Hive元数据存储到MySQL

1)新建Hive元数据库

#登录MySQL
mysql -uroot -p123456

#创建Hive元数据库
mysql> create database metastore;
mysql> quit;

将MySQL的JDBC驱动拷贝到Hive的lib目录下

在$HIVE_HOME/conf目录下新建hive-site.xml文件

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>
    <!-- jdbc连接的URL -->
    <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://localhost:3306/metastore?useSSL=false</value>
    </property>
    
    <!-- jdbc连接的Driver-->
    <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
    </property>
    
	<!-- jdbc连接的username-->
    <property>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>root</value>
    </property>

    <!-- jdbc连接的password -->
    <property>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>root</value>
    </property>

    <!-- Hive默认在HDFS的工作目录 -->
    <property>
        <name>hive.metastore.warehouse.dir</name>
        <value>/user/hive/warehouse</value>
    </property>
</configuration>

初始化hive元数据

bin/schematool -dbType mysql -initSchema -verbose

猜你喜欢

转载自blog.csdn.net/qq_49472679/article/details/124356975