couchDB:每个文档存储 MB
我现在正在分析 couchDB。是否可以每个文档存储 MB 的数据?例如 JPEG 图像。
我知道我需要对所述数据进行编码(base64 或其他)才能适合 JSON 容器。
请寻求实用建议。
I am analyzing couchDB at the moment. Is it possible to storage MB worth of data per document? E.g. a JPEG image.
I understand I would need to encode (base64 or something) the said data in order to fit the JSON container.
Practical advice sought please.
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(2)
正如 zed 在他的评论中所说,做到这一点的最佳方法是使用附件。 Wiki 有一个关于此的部分: http://wiki.apache.org/couchdb/HTTP_Document_API#附件的
基本思想如下:
您应该对附件内容进行 Base64 编码,这是正确的。每个文档可以有多个附件。
来自 wiki 的注意:请注意,您发送的任何 base64 数据都必须位于单行字符上,因此请预处理您的数据以删除任何回车符和换行符。 >
As zed said in his comment the best way to do this is using attachments. The Wiki has a section on this: http://wiki.apache.org/couchdb/HTTP_Document_API#Attachments
the basic idea is like so:
You are correct that you should Base64 encode the attachments contents. You can have multiple attachments per document.
NOTE from the wiki: Please note that any base64 data you send has to be on a single line of characters, so pre-process your data to remove any carriage returns and newlines.
我从未尝试过大型文档,但我使用的是带有大型附件的文档(JPEG > 10 Mpix),而且效果很好。
主要问题是,如此巨大的数据库大小的复制往往每周都会以新的、有趣的方式打破。
I have never tried big documents but I'm using documents with big attachments (JPEGs > 10 Mpix) and that works well.
The main issue is that which such huge database sizes replication tend to break in new and interesting ways every week.