我使用以下代码将大型文件从Internet流化为本地文件:fp = open(file, 'wb')req = urllib2.urlopen(url)for line in req: fp.write(line)fp.close()这可行,但下载速度很慢。有没有更快的方法?(文件很大,所以我不想将它们保留在内存中。)
3 回答
噜噜哒
TA贡献1784条经验 获得超7个赞
您还可以使用shutil:
import shutil
try:
from urllib.request import urlopen # Python 3
except ImportError:
from urllib2 import urlopen # Python 2
def get_large_file(url, file, length=16*1024):
req = urlopen(url)
with open(file, 'wb') as fp:
shutil.copyfileobj(req, fp, length)
添加回答
举报
0/150
提交
取消