sqoop从hdfs导出到mysql

create database logs;

use logs

create table weblogs_from_hdfs(
 md5 varchar(32),
 url varchar(64),
 request_date date,
 request_time time,
 ip varchar(15)
);

sqoop export -m 1 --connect jdbc:mysql://hadoop:3306/logs --username root --password root --table weblogs_from_hdfs --export-dir /data/weblogs/import --input-fields-terminated-by '\t'
对于通过sqoop导入的数据为NULL的在导出到数据库中时依然保持为NULL.即使在文件中保存为字符串为'null'。
sqoop默认为insert 插入新的语句
--update-key 'md5'  则将创建更新语句,update ....where md5 = '.......'
如果--update-key 'md5' 设置的值没有找到,可以设置--update-mode allowinsert 允许新增这行数据

每个mapper默认默认插入1000条记录,然后提交事务,若mapper失败,可能出现插入冲突或者插入重复数据,可以通过一个临时表--staging-table temptableName,等一个事务完成再将数据复制到--table指定的表中,临时表结构必须与最终表一致
 create table temp_table as select * from real_table where 1=0;
 临时表必须为空表,否侧必须配置参数--clear-staging-table 在插入数据前清空临时表


 

posted @ 2014-07-28 11:46  jseven  阅读(485)  评论(0编辑  收藏  举报