Plone对上传数据大小有限制吗

发布于 2024-12-08 11:32:33 字数 146 浏览 0 评论 0原文

我开发了一个 Plone 网站,并使用 csvreplicata 插件从 csv 文件上传数据。我成功上传了大约 6000 行的文件,但是当我尝试上传大约 120,000 行的 csv 时,plone 站点挂起。请问有人知道上传的数据大小是否有限制吗?

提前致谢

I developed a Plone site and I am using csvreplicata add-on to upload data from csv files. I managed to upload a file of about 6000 rows, however when I try to upload a csv with about 120,000 rows the plone site hangs. Does anyone know if there is a limit on the size of data uploaded please?

Thanks in advance

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

若无相欠,怎会相见 2024-12-15 11:32:33

查看产品代码 我看不到任何事务保存点,所以我认为这里真正的问题是您的服务器由于单个事务的大小巨大而内存不足,并且由于它开始交换而挂起。尝试监视服务器的内存使用情况,如有必要,在导入过程中每处理 N 个元素就添加此代码:

import transaction

...
transaction.savepoint(optimistic=True)

这将创建事务的“子事务”,将数据从内存移动到硬盘。

请务必选择适当的 N 维度:对于非常大的事务,您可能会面临节省内存和磁盘空间不足的风险,因为每个保存点都会乘以硬盘上的数据维度。

更多信息:http://docs.zope.org/zope3/Book/ zodb/savepoints/show.html

Looking at the product code i can't see any transaction savepoint, so I think that the real issue here is that your server goes out of memory because of the huge size of the single transaction and it hangs because it starts swapping. Try to monitor your server's memory usage and if necessary add this code every N elements processed during your import:

import transaction

...
transaction.savepoint(optimistic=True)

This will make a "sub-transaction" of the transaction, moving data from memory to the hard disk.

Be sure to choose an appropriate N dimension: for very huge transactions you risk to save your memory and going out of disk space because every savepoint multiplies the data dimension on the hdd.

More info: http://docs.zope.org/zope3/Book/zodb/savepoints/show.html

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文