Postgresql数据迁入greenplum时,large object怎么处理呢?

发布于 2022-09-04 07:55:20 字数 294 浏览 16 评论 0

本来想的是gpfdist导入,因为这个工具并行的,速度快。但是我的原postgresql库里有lo(large object)数据,大致看了下postgresql的COPY TO,并没有找到导出csv格式包含lo的参数。pg_dump倒是可以导出lo数据,但是貌似导出来的都是sql script,这个格式的好像也不能用gpfdist导入。
请问有解决方案吗?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(2

风向决定发型 2022-09-11 07:55:20

答案就直接从另一个社区的回答中复制出来了,当然是我自己的解决方案。之前因为pg_dump导出plain text遇到高版本postgresql bytea输出格式为hex的问题走了不少弯路,其实只需要导出二进制数据就可以导入greenplum了。希望对遇到同样问题的人有所帮助
I found out an easier way to work: just use pg_dump -b -Fc to export data including LO into a custom file, later use pg_restore of the same version of pg_dump which you used to export data to import the custom file data into greenplum.

Scripts:

$ pg_dump fhir -O -a -Fc  -f fhir.dump
$ pg_restore -h mdw -d fhir -U gpadmin -a fhir.dump > errors.log 2>&1
不奢求什么 2022-09-11 07:55:20

DataX 的插件 GpdbWriter 已经支持 bytea 类型的数据了。
https://github.com/HashDataIn...

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文