为了账号安全,请及时绑定邮箱和手机立即绑定

用Python读取大文件的懒惰方法?

用Python读取大文件的懒惰方法?

用Python读取大文件的懒惰方法?我有一个非常大的文件4GB,当我试图读取它时,我的计算机挂起。所以我想一片地阅读它,在处理完每一段之后,将处理后的部分存储到另一个文件中,然后读取下一段。有什么方法yield这些碎片?我想要一个懒惰法.
查看完整描述

3 回答

?
泛舟湖上清波郎朗

TA贡献1818条经验 获得超3个赞

readline()接受一个可选的size参数,它近似于返回的行中读取的行数。

bigfile = open('bigfilename','r')tmp_lines = bigfile.readlines(BUF_SIZE)while tmp_lines:
    process([line for line in tmp_lines])
    tmp_lines = bigfile.readlines(BUF_SIZE)


查看完整回答
反对 回复 2019-06-05
  • 3 回答
  • 0 关注
  • 870 浏览
慕课专栏
更多

添加回答

举报

0/150
提交
取消
意见反馈 帮助中心 APP下载
官方微信