json_encode 处理大数据问题
用json_encode把大数据转成json的时候发现 内存耗尽了。又没什么解决方案可以替代json_encode,还有循环大数据时好像也会出现这个问题 又怎么解决呢
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
用json_encode把大数据转成json的时候发现 内存耗尽了。又没什么解决方案可以替代json_encode,还有循环大数据时好像也会出现这个问题 又怎么解决呢
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
接受
或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
发布评论
评论(4)
如果只是保存和php自己调用解析的话可以用serialize方法,比Json_encode性能要高不少。
问题我回答的不全面,题主不用看啦。只适用于某些特定场景。。。
循环可以考虑yield关键字解决内存消耗。json_encode 这个太模糊了。
通常我遇到大数据量的问题的时候 。我都会去想是否可以将这个大的数据拆分。比如说。我要缓存个数据列表。我只缓存id就可以了。具体的数据 我在通过id获取(都是走缓存的)。 当然 具体情况具体分析。另外如果你序列化的时候 都很缓慢。在你需要处理这个json的时候。读取解析也是个问题
//设定脚本无超时时间
set_time_limit(0);
//设置脚本可用最大内存
ini_set("memory_limit","2048M");