博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
mysql导入导出数据
阅读量:7119 次
发布时间:2019-06-28

本文共 4134 字,大约阅读时间需要 13 分钟。

  mysqldump是MySQL自带的导出数据工具,通常我们用它来导出MySQL中,但是有时候我们需要导出MySQL数据库中某个表的部分数据作为测试。

mysqldump命令中带有一个 --where/-w 参数,它用来设定数据导出的条件,使用方式和SQL查询命令中中的where基本上相同,命令格式如下:

导出单个表结构导出部分数据

mysqldump -u用户名 -p密码 数据库名 表名 --where="筛选条件" > 导出文件路径mysqldump  -h54.0.88.53 -uroot -ppassword chen  canal_amt1 --where = sensorid=11 and fieldid=0 > /home/kang/Desktop/temp/test.sqlmysqldump -uroot -p123456 kang organ --where parentId=1 > /home/kang/Desktop/temp/organ2.sqlmysqldump -uroot -p123456 kang organ --where="parentId=1"  > /home/kang/Desktop/temp/organ2.sqlmysqldump -uroot -p123456 kang organ --where="1=1 limit 5"> /home/kang/Desktop/temp/organ2.sqlmysqldump -uroot -p123456 kang organ --where="true limit 5"> /home/kang/Desktop/temp/organ2.sql

 导出数据库所有表的前n条记录

mysqldump -uroot -p123456 kang --where="1=1 limit 5"> /home/kang/Desktop/temp/organ2.sql

导出多个表加相同条件记录

mysqldump  -h54.0.88.53 -uroot -ppassword chen cust_tran_rank khflag credit_card cust_tran other_amt large_amt_detail large_amt large_avgrank --where="cust_no='%430102%' limit 100" >/home/labs/kang/custno.sql 

导入

use database;source /home/kang/Desktop/temp/organ2.sql;

mysqldump可以包括其他参数:

备份数据库#mysqldump 数据库名 >数据库备份名#mysqldump -A -u用户名 -p密码 数据库名>数据库备份名#mysqldump -d -A --add-drop-table -uroot -p >xxx.sql1.导出结构不导出数据mysqldump -d 数据库名 -uroot -p > xxx.sqlmysqldump -h localhost -uroot -p123456  -d database table > dump.sql2.导出数据不导出结构mysqldump -t 数据库名 -uroot -p > xxx.sql3.导出数据和表结构mysqldump 数据库名 -uroot -p > xxx.sqlmysqldump -h localhost -uroot -p123456  database table > dump.sql

 为避免敏感信息,导入后将某一字段改变中间几位,如8-11位

 

 其他选项参数:

--add-locks   在每个表导出之前增加LOCK TABLES并且之后UNLOCK TABLE。(为了使得更快地插入到MySQL)。   --add-drop-table   在每个create语句之前增加一个drop table。   --allow-keywords   允许创建是关键词的列名字。这由表名前缀于每个列名做到。   -c, --complete-insert   使用完整的insert语句(用列名字)。   -C, --compress   如果客户和服务器均支持压缩,压缩两者间所有的信息。   --delayed   用INSERT DELAYED命令插入行。   -e, --extended-insert   使用全新多行INSERT语法。(给出更紧缩并且更快的插入语句)   -#, --debug[=option_string]   跟踪程序的使用(为了调试)。   --help   显示一条帮助消息并且退出。   --fields-terminated-by=...       --fields-enclosed-by=...       --fields-optionally-enclosed-by=...       --fields-escaped-by=...       --fields-terminated-by=...   这些选择与-T选择一起使用,并且有相应的LOAD DATA INFILE子句相同的含义。   LOAD DATA INFILE语法。   -F, --flush-logs   在开始导出前,洗掉在MySQL服务器中的日志文件。   -f, --force,   即使我们在一个表导出期间得到一个SQL错误,继续。     -l, --lock-tables.   为开始导出锁定所有表。   -t, --no-create-info   不写入表创建信息(CREATE TABLE语句)   -d, --no-data   不写入表的任何行信息。表的结构的导出,这是很有用的!   --opt   同--quick --add-drop-table --add-locks --extended-insert --lock-tables。   为读入一个MySQL服务器的尽可能最快的导出。   -pyour_pass, --password[=your_pass]   与服务器连接时使用的口令。如果你不指定“=your_pass”部分,mysqldump需要来自终端的口令。   -P port_num, --port=port_num   与一台主机连接时使用的TCP/IP端口号。(这用于连接到localhost以外的主机,因为它使用 Unix套接字。)   -q, --quick   不缓冲查询,直接导出至stdout;使用mysql_use_result()做它。   -S /path/to/socket, --socket=/path/to/socket   与localhost连接时(它是缺省主机)使用的套接字文件。   -T, --tab=path-to-some-directory   对于每个给定的表,创建一个table_name.sql文件,它包含SQL CREATE 命令,和一个table_name.txt文件,它包含数据。注意:这只有在mysqldump运行在mysqld守护进程运行的同一台机器上的时候才工作。.txt文件的格式根据--fields-xxx和 --lines--xxx选项来定。  。   -O var=option, --set-variable var=option设置一个变量的值。可能的变量被列在下面。   -v, --verbose   冗长模式。打印出程序所做的更多的信息。      -w, --where='where-condition'   只导出被选择了的记录;注意引号是强制的!   "--where=user='jimf'" "-wuserid>1" "-wuserid<1"

Hive导出数据

-e 表示后面直接接带双引号的sql语句,而-f是接一个文件,文件的内容为一个sql语句,如

SELECT a.* FROM testhivedrivertable2 a使用-e导出例子:hive -e “SELECT a.* FROM testhivedrivertable2 a” >> /usr/local/hive-0.9.0/examples/output/1.txt使用-f导出例子:hive -f /usr/local/hive-0.9.0/examples/sql.txt >> /usr/local/hive-0.9.0/examples/output/2.txt

导入:

create table test_hbase(id int,name string) row format delimited fields terminated by ',' stored as textfile;load data local inpath '/home/kang/hive/test_hbase.txt' overwrite into table test_hbase; 

 When I try to configure items in hadoop-evn.sh/hbase-env.sh( e.g. change JVM parameters, add jars to hadoop classpath), it seems that Ambari only exposes a small set of configuration items in web UI. Is it possible to manually configure hadoop-env.sh/hbase-env.sh in the master node and then use Ambari to distribute them to the whole cluster

转载地址:http://aenel.baihongyu.com/

你可能感兴趣的文章
一个游戏程序员的学习资料
查看>>
UIMenuController,UIPasteboard:复制,粘贴详细解释
查看>>
js在以div添加滚动条
查看>>
thinkphp 如何调用百度echarts 数据报表插件
查看>>
Git异常:fatal: V1.0 cannot be resolved to branch.
查看>>
Atitit.web的自动化操作与信息抓取 attilax总结
查看>>
csdn android视频播放器开发
查看>>
lintcode:线段树的构造
查看>>
could not be installed at this time
查看>>
随机函数(Pascal入门)
查看>>
【NLP】蓦然回首:谈谈学习模型的评估系列文章(一)
查看>>
Java传值和传址
查看>>
两种常用的启动和关闭MySQL服务
查看>>
C# 事件
查看>>
一场改变你投资生涯的讨论:职业德州扑克手看交易
查看>>
IDEA 设置忽略那些文件不提交到SVN服务器
查看>>
HTTP的长连接和短连接
查看>>
ConcurrentHashMap并不是绝对线程安全的
查看>>
Oracle Instance
查看>>
使用网络监视器(IRSI)捕捉和分析协议数据包
查看>>