mysql导入导出数据

  mysqldump是MySQL自带的导出数据工具,通常我们用它来导出MySQL中,但是有时候我们需要导出MySQL数据库中某个表的部分数据作为测试。

mysqldump命令中带有一个 --where/-w 参数,它用来设定数据导出的条件,使用方式和SQL查询命令中中的where基本上相同,命令格式如下:

导出单个表结构导出部分数据

mysqldump -u用户名 -p密码 数据库名 表名 --where="筛选条件" > 导出文件路径
mysqldump  -h54.0.88.53 -uroot -ppassword chen  canal_amt1 --where = sensorid=11 and fieldid=0 > /home/kang/Desktop/temp/test.sql
mysqldump -uroot -p123456 kang organ --where parentId=1 > /home/kang/Desktop/temp/organ2.sql
mysqldump -uroot -p123456 kang organ --where="parentId=1"  > /home/kang/Desktop/temp/organ2.sql
mysqldump -uroot -p123456 kang organ --where="1=1 limit 5"> /home/kang/Desktop/temp/organ2.sql
mysqldump -uroot -p123456 kang organ --where="true limit 5"> /home/kang/Desktop/temp/organ2.sql

 导出数据库所有表的前n条记录

mysqldump -uroot -p123456 kang --where="1=1 limit 5"> /home/kang/Desktop/temp/organ2.sql

导出多个表加相同条件记录

mysqldump  -h54.0.88.53 -uroot -ppassword chen cust_tran_rank khflag credit_card cust_tran other_amt large_amt_detail large_amt large_avgrank --where="cust_no='%430102%' limit 100" >/home/labs/kang/custno.sql 

导入

use database;
source /home/kang/Desktop/temp/organ2.sql;

mysqldump可以包括其他参数:

备份数据库
#mysqldump 数据库名 >数据库备份名
#mysqldump -A -u用户名 -p密码 数据库名>数据库备份名
#mysqldump -d -A --add-drop-table -uroot -p >xxx.sql

1.导出结构不导出数据
mysqldump -d 数据库名 -uroot -p > xxx.sql
mysqldump -h localhost -uroot -p123456  -d database table > dump.sql

2.导出数据不导出结构
mysqldump -t 数据库名 -uroot -p > xxx.sql

3.导出数据和表结构
mysqldump 数据库名 -uroot -p > xxx.sql
mysqldump -h localhost -uroot -p123456  database table > dump.sql

 为避免敏感信息,导入后将某一字段改变中间几位,如8-11位

 

 其他选项参数:

--add-locks   
在每个表导出之前增加LOCK TABLES并且之后UNLOCK TABLE。(为了使得更快地插入到MySQL)。   
--add-drop-table   
在每个create语句之前增加一个drop table。   
--allow-keywords   
允许创建是关键词的列名字。这由表名前缀于每个列名做到。   
-c, --complete-insert   
使用完整的insert语句(用列名字)。   
-C, --compress   
如果客户和服务器均支持压缩,压缩两者间所有的信息。   
--delayed   
用INSERT DELAYED命令插入行。   
-e, --extended-insert   
使用全新多行INSERT语法。(给出更紧缩并且更快的插入语句)   
-#, --debug[=option_string]   
跟踪程序的使用(为了调试)。   
--help   
显示一条帮助消息并且退出。   
--fields-terminated-by=...   
    
--fields-enclosed-by=...   
    
--fields-optionally-enclosed-by=...   
    
--fields-escaped-by=...   
    
--fields-terminated-by=...   
这些选择与-T选择一起使用,并且有相应的LOAD DATA INFILE子句相同的含义。   
LOAD DATA INFILE语法。   
-F, --flush-logs   
在开始导出前,洗掉在MySQL服务器中的日志文件。   
-f, --force,   
即使我们在一个表导出期间得到一个SQL错误,继续。     
-l, --lock-tables.   
为开始导出锁定所有表。   
-t, --no-create-info   
不写入表创建信息(CREATE TABLE语句)   
-d, --no-data   
不写入表的任何行信息。表的结构的导出,这是很有用的!   
--opt   
同--quick --add-drop-table --add-locks --extended-insert --lock-tables。   
为读入一个MySQL服务器的尽可能最快的导出。   
-pyour_pass, --password[=your_pass]   
与服务器连接时使用的口令。如果你不指定“=your_pass”部分,mysqldump需要来自终端的口令。   
-P port_num, --port=port_num   
与一台主机连接时使用的TCP/IP端口号。(这用于连接到localhost以外的主机,因为它使用 Unix套接字。)   
-q, --quick   
不缓冲查询,直接导出至stdout;使用mysql_use_result()做它。   
-S /path/to/socket, --socket=/path/to/socket   
与localhost连接时(它是缺省主机)使用的套接字文件。   
-T, --tab=path-to-some-directory   
对于每个给定的表,创建一个table_name.sql文件,它包含SQL CREATE 命令,和一个table_name.txt文件,它包含数据。注意:这只有在mysqldump运行在mysqld守护进程运行的同一台机器上的时候才工作。.txt文件的格式根据--fields-xxx和 --lines--xxx选项来定。  。   
-O var=option, --set-variable var=option设置一个变量的值。可能的变量被列在下面。   
-v, --verbose   
冗长模式。打印出程序所做的更多的信息。      
-w, --where='where-condition'   
只导出被选择了的记录;注意引号是强制的!   
"--where=user='jimf'" "-wuserid>1" "-wuserid<1"

Hive导出数据

-e 表示后面直接接带双引号的sql语句,而-f是接一个文件,文件的内容为一个sql语句,如

SELECT a.* FROM testhivedrivertable2 a
使用-e导出例子:
hive -e “SELECT a.* FROM testhivedrivertable2 a” >> /usr/local/hive-0.9.0/examples/output/1.txt

使用-f导出例子:
hive -f /usr/local/hive-0.9.0/examples/sql.txt >> /usr/local/hive-0.9.0/examples/output/2.txt

导入:

create table test_hbase(id int,name string) row format delimited fields terminated by ',' stored as textfile;
load data local inpath '/home/kang/hive/test_hbase.txt' overwrite into table test_hbase; 

 When I try to configure items in hadoop-evn.sh/hbase-env.sh( e.g. change JVM parameters, add jars to hadoop classpath), it seems that Ambari only exposes a small set of configuration items in web UI. Is it possible to manually configure hadoop-env.sh/hbase-env.sh in the master node and then use Ambari to distribute them to the whole cluster

posted @ 2014-12-19 10:30  晋心  阅读(773)  评论(0编辑  收藏  举报