您的位置:首页 > 数据库 > MySQL

从MySQL导出到PostgreSQL

2016-07-13 23:35 477 查看
摘要: 异构数据库的导入、导出是一个大难题。从MySQL到PG目前没有特别完善的工具,还需要人工的参与。本文将简单介绍下如何利用一些工具,手工将MySQL导出数据到PostgreSQL。 导出、转换、导入 数据导出、导入的思路是: 导出结构 导出数据 对结构进行转换 对数据进行转换 ...

异构数据库的导入、导出是一个大难题。从MySQL到PG目前没有特别完善的工具,还需要人工的参与。本文将简单介绍下如何利用一些工具,手工将MySQL导出数据到PostgreSQL。


导出、转换、导入

数据导出、导入的思路是:

导出结构

导出数据

对结构进行转换

对数据进行转换

导入结构

导入数据

这里的想法是将结构和数据分开处理,这样有很多好处。首先DDL的语句的差别相比DML要大一些,比如各种类型的转换、符号的变化等,分开之后可以针对性的处理;其次,DDL和DML分开更好做批量的处理;其他好处……

当前的开源转换工具,尚没有一个完善的。不同的工具分别做了些不同的转换,因此本文将会利用多个工具互相配合使用,可以达到较好的效果。主要用到的工具有:

mysql-postgresql-converter

单个python脚本,依赖较少。对文件內容、格式的转换,比较好的是enum类型改写等。

my2pg.pl

单个perl脚本,依赖较少,会对数据类型做不错的转换。

SED、VIM, 文本编辑神器,你懂得~


导出

导出主要采用的是mysql自带的mysqldump,导出成sql文件的形式。这里只给出直接的例子,更多的参数请参考文档(mysqldump --help)。


导出结构

/usr/local/mysql/bin/mysqldump --skip-opt --compatible=postgresql --compact --no-data --default-character-set=utf8 --skip-dump-date -u cvusr -p -h mysqlhostaddress cvdb > schm.sql

--no-data,故名思议,就是不带数据

--compatible=postgresql, 尽量兼容PostgreSQL的语法的方式,至少能减少后面一部分工作量

--default-character-set=utf8,编码尽量与目标库保持一致

这里有更多的说明


导出数据

/usr/local/mysql/bin/mysqldump --skip-opt --compatible=postgresql --compact --no-create-info --default-character-set=utf8 --skip-comments --skip-dump-date -u cvusr -p -h mysqlhost cvdb > data.sql

--no-create-info,去除了结构信息,只是数据

这里有更多的说明


转换

数据的导出是比较容易的,麻烦的地方在于将数据文件转换成另一种数据库可以采用的方式。在这个过程中,至少需要处理以下几个问题,这里有详细的MySQL与PG的对比


在结构上

类型

如mediumint、char等,其实PG是可以自定义类型,这个应该是细节的处理,现有工具已经能做的不错。my2pg.pl工具可以完成得较好

语义转换

典型的,在MySQL中可以create table的时候对字段采用enum类型,在PG中就需要抽出来先建个enum数据类型。另外如UK、default value等。 这方面,mysql-postgresql-converter可以满足部分需求。

其他地方


在数据上:

格式

'与"

默认值

其他地方

可以在PG上做如下设置:

backslash_quote = on

escape_string_warning = off

standard_conforming_strings = off

在mysqldump的时候,在建表语句中会有注释,但发现几个工具都去不掉,mysqldump的"--skip-comments"选项也没起作用,百思不得姐之后决定手动处理:

sed -i "s/ COMMENT '.*',/ ,/g" schm.dump

sed -i "s/ COMMENT '.*',/ ,/g" data.dump


自动转换

经过多次尝试,发现没有一个工具能够将导出的结构处理的比较完善,使得可以直接在PG中导入。开了脑洞后尝试工具的合作,主要是因为懒,不想手动改:

// 一些数据类型的修改,读者可以自行作个对比。目前my2pg.pl做得比其他工具要好一些。 (但其将blob类型转换成了text,需要注意,可以将脚本my2pg.pl中的“s/\w*blob$chareg/text/i; ”改为“s/\w*blob$chareg/bytea/i; ”)

perl
my2pg.pl  schm.dump  > my2pg-schm.dump


// enum类型改写等,这个是上面的工具没有处理的,还有一些其他的

python
mysql-postgresql-converter/db_converter.py schm.dump > db_cvtr-my2pg-schm.dump


这里需要注意的是,这两个工具的顺序不能变,变了之后结果就不认识了。如果有兴趣,可以尝试下与其他工具的配合。

这还不是结束!这个时候,并不一定所有的类型都修改完全,可能还有一些需要手工处理,如:

特殊字符的处理:

SHELL$ vim mysql2pgsql-data.dump

:%s /\E'/E\'/g

——这里是去除一些地方转换出的问题,在插入语句中,"insert into tbl values(0, E\'0\')"会被处理成了"insert into tbl values(0, \E'0\')"。幸好只是少数!

日期默认值:

'0000-00-00' 改为CURRENT_DATE,或者某固定日期等

——在MySQL中,日期'0000-00-00'值为空、或者无效,但这个日期不是正确日期,因此在PG中不支持。CURRENT_DATE是指当前时间。

其他的修改,也只能见招拆招了。


数据导入

在转换处理完成了之后,剩下的也就简单了。依次导入结构和数据就好,如果有问题,只能具体问题具体分析了。

结构导入

~/Workspace/pg94/bin/psql -h pghost -p 3432 -U cvusr -d cvdb -f schm.dump

数据导入

~/Workspace/pg94/bin/psql -h pghost -p 3432 -U cvusr -d cvdb -f data.dump


检查、验证

数据导进来了,不代表就结束了。因为不确定中间是否出了什么幺蛾子。需要做一些验证:

表结构、类型

记录数

抽样记录

存储过程就算了

编码、乱码的问题

其他差异地方的对比,如blob、clob等

针对这些做过检查无误之后,需要应用做相应的全面的测试。


参考

mysql-to-postgresql-migration-tips

Converting_from_other_Databases_to_PostgreSQL

Converting_MySQL_to_PostgreSQL

mysql-postgresql-converter

py-mysql2pgsql

py-mysql2pgsql源码

mysqldump参数解释

Migrating from MySQL to PostgreSQL
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: