用Python读取大文件的懒惰方法?我有一个非常大的文件4GB,当我试图读取它时,我的计算机挂起。所以我想一片地阅读它,在处理完每一段之后,将处理后的部分存储到另一个文件中,然后读取下一段。有什么方法yield这些碎片?我想要一个懒惰法.
3 回答
泛舟湖上清波郎朗
TA贡献1818条经验 获得超3个赞
bigfile = open('bigfilename','r')tmp_lines = bigfile.readlines(BUF_SIZE)while tmp_lines: process([line for line in tmp_lines]) tmp_lines = bigfile.readlines(BUF_SIZE)
添加回答
举报
0/150
提交
取消