mysql 导入大量数据 Repair with keycache
2009-10-19 16:15
330 查看
今天大导一个大mysql的数据库的时候,gzip的压缩包有10G,所以原文件大概就有50个G左右了,刚开始导入还是正常的,可以后来发现数据库好像没有导入了,可是进入数据库一看,相应的表都还没有导完,利用show processlist一看发现一个错误,Repair with keycache,于是google一把,由下面的链接http://stackoverflow.com/questions/1067367/mysql-how-to-avoid-repair-with-keycache明白了,原来相应的tmp地址的空间不够,因为我没有在my.cnf之中指定相应的/tmp的位置,从而,麻烦来了,机器的空间是有限的,而我又要导入数据,怎么办?
一会儿明白,可以不用先解压再导入,可以边解压边导入,从而就可以节省出原来的gzip的文件解压也占用的空间,从而/tmp目录自然也不会被占用,只是导入的时候会慢一点而已.
利用cat命令如下:
cat outfile.gz | gunzip | mysql -u username -p dbname
一会儿明白,可以不用先解压再导入,可以边解压边导入,从而就可以节省出原来的gzip的文件解压也占用的空间,从而/tmp目录自然也不会被占用,只是导入的时候会慢一点而已.
利用cat命令如下:
cat outfile.gz | gunzip | mysql -u username -p dbname
相关文章推荐
- mysql:Repair with keycache
- [MySQL FAQ]系列 -- 如何避免repair with keycache
- [MySQL FAQ]系列 -- 如何避免repair with keycache
- window下mysql导入大量数据
- hadoop 集群环境Sqoop 将数据导入mysql问题 many connection errors; unblock with 'mysqladmin flush-hosts'
- mysql 大量数据导入方法[代码]
- MySQL快速导入/插入大量数据
- php导入大量数据到mysql性能优化技巧
- mysql快速导入大量数据问题
- Excel数据大量导入MySQL--MySQL数据换行符回车符替换处理
- JAVA接口将从MySql查出的大量数据导入到Elasticsearch中实现类
- MYSQL导入数据出现The MySQL server is running with the --secure-file-priv
- 大量数据导入导致mysql自动重启
- Mysql导入导出大量数据的方法、备份恢复办法
- 从 MySQL 导入导出大量数据的程序实现方法
- mysql导入大量数据
- Mysql导入导出大量数据的方法、备份恢复办法
- 分析Mysql大量数据导入遇到的问题以及解决方案
- 从 MySQL 导入导出大量数据的程序
- MySQL 快速导入大量数据 资料收集