json_encode 处理大数据问题

发布于 2017-05-06 02:20:56 字数 90 浏览 1335 评论 4

用json_encode把大数据转成json的时候发现 内存耗尽了。又没什么解决方案可以替代json_encode,还有循环大数据时好像也会出现这个问题 又怎么解决呢

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(4

夜无邪 2017-05-06 02:21:01

如果只是保存和php自己调用解析的话可以用serialize方法,比Json_encode性能要高不少。
问题我回答的不全面,题主不用看啦。只适用于某些特定场景。。。

浮生未歇 2017-05-06 02:20:58

循环可以考虑yield关键字解决内存消耗。json_encode 这个太模糊了。

瑾兮 2017-05-06 02:20:58

通常我遇到大数据量的问题的时候 。我都会去想是否可以将这个大的数据拆分。比如说。我要缓存个数据列表。我只缓存id就可以了。具体的数据 我在通过id获取(都是走缓存的)。 当然 具体情况具体分析。另外如果你序列化的时候 都很缓慢。在你需要处理这个json的时候。读取解析也是个问题

归属感 2017-05-06 02:20:56

//设定脚本无超时时间
set_time_limit(0);

//设置脚本可用最大内存
ini_set("memory_limit","2048M");

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文