数据库常用语句
记录常用数据库启动服务、导入导出等方法,仅针对linux命令行操作
1. MySQL
1.1. 连接
- mysql -uroot -p123456
1.2. 运行状态
- service mysqld status
1.3. 服务启动
- service mysqld start/restart
- ./mysqld_safe &
1.4. 服务暂停
- service mysqld stop
- mysqladmin -u root shutdown
1.5. 导入
#导入SQL文件
> source /home/gpadmin/mysql/realt.sql
- mysql -u用户名 -p密码 数据库名 < 数据库名.sql
#导入纯数据文件
> LOAD DATA LOCAL INFILE '/data/testing/mysql_bk/realt' INTO TABLE realt(...);
1.6. 导出
#导出纯数据文件
> SELECT * into outfile '/data/testing/mysql_bk/realt' FIELDS TERMINATED BY ',' LINES TERMINATED BY '\n' FROM realt;
#导出sql文件
mysqldump -u 用户名 -p 数据库名 [表名] > 导出的文件名
- mysqldump -uroot -p realtime realt> realt.sql
#导出数据库结构
-d 没有数据 --add-drop-table 在每个create语句之前增加一个drop table
- mysqldump -uroot -p -d --add-drop-table realtime > realtime.sql
2. PostgreSQL
2.1. 连接
- psql -U postgres
2.2. 运行状态
- pg_ctl status
2.3. 服务启动
- pg_ctl start
- /share/apps/postgresql/bin/postgres -D /data/postgres/
2.4. 服务暂停
- pg_ctl stop
- pg_ctl stop -D /data/postgres/ -m fast
2.5. 导入
- psql -U postgres -d kgj -f < kgj.sql
#导入表数据
> copy v_schedule from '${FILE_PATH}/v_schedule' with delimiter as '`';
2.6. 导出
#导出表
- pg_dump -U kgj -h $IP -p $PORT --inserts -a v_schedule > ${BK_PATH}.sql
#导出数据库
- pg_dump -U kgj -h $IP -p $PORT -d kgj > ${BK_PATH}/${DATE}_kgj.sql
#导出表数据
> copy v_schedule to '${FILE_PATH}/v_schedule' with delimiter as '`';
3. ClickHouse
3.1. 连接
- clickhouse-client -u default -h XXX.XX.XXX.XX --password XXX --port 9020 -d testdb
3.2. 运行状态
- service clickhouse-server status
3.3. 服务启动
- service clickhouse-server start/restart
3.4. 服务暂停
- service clickhouse-server stop
3.5. 导入
- clickhouse-client -u ... --port 9020 --query="INSERT INTO test.real_time_data(...) FORMAT CSV" < ${FILE}
3.6. 导出
- clickhouse-client -u ... --port 9020 --query="select * from test.real_time_data(...) FORMAT CSV" > ${FILE}
4. Greenplum
4.1. 连接
- psql -d testdb
4.2. 运行状态
- gpstate
4.3. 服务启动
- gpstart
#重启
- gpstop -r
#重载配置
- gpstop -u
4.4. 服务暂停
- gpstop
- gpstop -M fast
4.5. 导入
- copy ${TABLE_NAME} from '${FILE_PATH}' with csv LOG ERRORS SEGMENT REJECT LIMIT 100000 ROWS;
4.6. 导出
- copy ${TABLE_NAME} to '${FILE_PATH}' with csv LOG ERRORS SEGMENT REJECT LIMIT 100000 ROWS;
#导出建表语句
- pg_dump -s --table=szt_data testdb
5. HBase
5.1. 连接
- hbase shell
5.2. 运行状态
> status
5.3. 服务启动
- sh /share/apps/hbase/bin/start-hbase.sh
5.4. 服务暂停
- sh /share/apps/hbase/bin/stop-hbase.sh
5.5. 导入
- hbase org.apache.hadoop.hbase.mapreduce.Import 'test' test000
5.6. 导出
- hbase org.apache.hadoop.hbase.mapreduce.Export test /datum/test000