3 回答
TA贡献1856条经验 获得超11个赞
解析大型 JSON 数据似乎比它应该的要慢。查明原因并向 Go 作者提交补丁是值得的。
同时,如果你能避免使用JSON并使用二进制格式,你不仅可以避免这个问题;您还将获得代码现在花费的时间将数字的 ASCII 十进制表示解析为它们的二进制 IEEE 754 等效项(并且在这样做时可能会引入舍入错误。)
如果您的发送方和接收方都是用 Go 编写的,我建议使用 Go 的二进制格式:gob。
做一个快速测试,生成一个包含 2000 个条目的地图,每个条目有 1050 个简单浮点数,给我 20 MB 的 JSON,在我的机器上解析需要 1.16 秒。
对于这些快速基准测试,我采用了三个运行中的最佳值,但我确保只测量实际解析时间,t0 := time.Now()
在 Unmarshal 调用之前和time.Now().Sub(t0)
之后打印。
使用 GOB,相同的地图产生 18 MB 的数据,解析需要 115 毫秒:
时间的十分之一。
您的结果将根据您在那里拥有的实际浮点数而有所不同。如果你的浮点数有很多有效数字,值得他们用 float64 表示,那么 20 MB 的 JSON 将比我的 200 万个浮点数少得多。在这种情况下,JSON 和 GOB 之间的区别将变得更加明显。
顺便说一句,这证明问题确实在于 JSON 解析器,而不是要解析的数据量,也不在于要创建的内存结构(因为两个测试都在解析 ~ 20 MB 的数据并重新创建相同的浮点数切片。)用 JSON 中的字符串替换所有浮点数给了我 1.02 秒的解析时间,确认从字符串表示到二进制浮点数的转换确实需要一定时间(与仅移动字节相比)但不是主要的罪魁祸首。
如果发送方和解析器都不是 Go,或者如果你想比 GOB 更进一步地压缩性能,你应该使用你自己定制的二进制格式,要么使用协议缓冲区,要么手动使用“编码/二进制”和朋友。
- 3 回答
- 0 关注
- 428 浏览
添加回答
举报