Postgresql数据迁入greenplum时,large object怎么处理呢?
本来想的是gpfdist
导入,因为这个工具并行的,速度快。但是我的原postgresql库里有lo
(large object)数据,大致看了下postgresql的COPY TO
,并没有找到导出csv格式包含lo
的参数。pg_dump
倒是可以导出lo
数据,但是貌似导出来的都是sql script
,这个格式的好像也不能用gpfdist
导入。
请问有解决方案吗?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(2)
答案就直接从另一个社区的回答中复制出来了,当然是我自己的解决方案。之前因为
pg_dump
导出plain text遇到高版本postgresqlbytea
输出格式为hex
的问题走了不少弯路,其实只需要导出二进制数据就可以导入greenplum了。希望对遇到同样问题的人有所帮助I found out an easier way to work: just use
pg_dump -b -Fc
to export data including LO into a custom file, later usepg_restore
of the same version ofpg_dump
which you used to export data to import the custom file data into greenplum.Scripts:
DataX 的插件 GpdbWriter 已经支持 bytea 类型的数据了。
https://github.com/HashDataIn...