使用 python 将压缩的 SQL 转储导入 Postgresql
我必须将压缩的 sql 转储导入到 PostgreSQL 数据库中。 转储的创建方式是:
pg_dump -F c
所以我得到一个压缩文件,我不能只逐行解析该文件,然后使用 psycopg2 将其上传到我的数据库中。
我正在处理的压缩转储非常大(高达 10GB)。导入它们的有效方法是什么?
I have to import a compressed sql dump into a PostgreSQL database.
The dump gets created by:
pg_dump -F c
So I get a compressed file, which I can't just parse line by line and then use psycopg2 to upload it into my database.
The compressed dumps I'm dealing with are quite big (up to 10GB). What would be an efficient way to do import them?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
除非您在 Python 项目中重新实现 pg_restore ,否则您基本上无法做到这一点。考虑从 Python 程序中调用
pg_restore
。You basically can't do that unless you reimplement
pg_restore
in your Python project. Consider instead callingpg_restore
from your Python program.