用json_encode把大数据转成json的时候发现 内存耗尽了。又没什么解决方案可以替代json_encode,还有循环大数据时好像也会出现这个问题 又怎么解决呢
用json_encode把大数据转成json的时候发现 内存耗尽了。又没什么解决方案可以替代json_encode,还有循环大数据时好像也会出现这个问题 又怎么解决呢
通常我遇到大数据量的问题的时候 。我都会去想是否可以将这个大的数据拆分。比如说。我要缓存个数据列表。我只缓存id就可以了。具体的数据 我在通过id获取(都是走缓存的)。 当然 具体情况具体分析。
另外如果你序列化的时候 都很缓慢。在你需要处理这个json的时候。读取解析也是个问题
3 回答692 阅读✓ 已解决
2 回答1.2k 阅读✓ 已解决
2 回答546 阅读✓ 已解决
4 回答730 阅读✓ 已解决
4 回答719 阅读
4 回答1k 阅读
5 回答776 阅读