我有一个文件,该文件以JSON形式存储许多JavaScript对象,我需要读取该文件,创建每个对象并对其进行处理(在我的情况下,将它们插入到db中)。JavaScript对象可以表示为以下格式:格式A:[{name: 'thing1'},....{name: 'thing999999999'}]或格式B:{name: 'thing1'} // <== My choice....{name: 'thing999999999'}请注意,...表示很多JSON对象。我知道我可以将整个文件读入内存,然后JSON.parse()像这样使用:fs.readFile(filePath, 'utf-8', function (err, fileContents) { if (err) throw err; console.log(JSON.parse(fileContents));});但是,该文件可能真的很大,我希望使用流来完成此操作。我在流中看到的问题是,文件内容随时可能被分解成数据块,那么如何JSON.parse()在此类对象上使用?理想情况下,每个对象将被读取为一个单独的数据块,但是我不确定如何做到这一点。var importStream = fs.createReadStream(filePath, {flags: 'r', encoding: 'utf-8'});importStream.on('data', function(chunk) { var pleaseBeAJSObject = JSON.parse(chunk); // insert pleaseBeAJSObject in a database});importStream.on('end', function(item) { console.log("Woot, imported objects into the database!");});*/注意,我希望防止将整个文件读入内存。时间效率对我来说并不重要。是的,我可以尝试一次读取多个对象并一次插入所有对象,但这是性能上的调整-我需要一种方法来确保不会引起内存过载,无论文件中包含多少个对象。我可以选择使用,FormatA或者选择FormatB其他方式,只需在您的答案中指定即可。谢谢!
3 回答
胡子哥哥
TA贡献1825条经验 获得超6个赞
正如我以为编写流式JSON解析器会很有趣一样,我也认为也许应该快速搜索一下是否已有一个可用的。
原来有。
JSONStream “流式JSON.parse和字符串化”
自从我找到它以来,我显然没有使用过它,因此我无法评论它的质量,但是我很想知道它是否有效。
考虑以下Javascript并可以正常工作_.isString:
stream.pipe(JSONStream.parse('*'))
.on('data', (d) => {
console.log(typeof d);
console.log("isString: " + _.isString(d))
});
如果流是对象数组,则将记录对象进入时的状态。因此,唯一要缓冲的是一次仅一个对象。
添加回答
举报
0/150
提交
取消