为了账号安全,请及时绑定邮箱和手机立即绑定

为什么有时候爬虫会卡住不能运行了,但是也没有报错?

我按照Python开发简单爬虫做了一个实例,但是运行时发现爬100以内没什么问题,但是扩大范围,比如爬1000条,有时就卡住了,比如他就输出craw104就卡住了,有可能是什么原因呢?

正在回答

2 回答

这应该不是解决方案,如果内容没有遍历完就执行下一个了,因为你定死了时间;我加了try...except可以跳过报错的地方,应该还有更好的方法,寻找中

0 回复 有任何疑惑可以回复我~

然而我找到答案了,原因大概是网络问题,导致 response = urllib2.urlopen(url)没有反应,然后卡死

解决方案就是加个timeout: response = urllib2.urlopen(url,timeout=5)

这样就能继续往下爬了~

1 回复 有任何疑惑可以回复我~

举报

0/150
提交
取消
Python开发简单爬虫
  • 参与学习       227670    人
  • 解答问题       1219    个

本教程带您解开python爬虫这门神奇技术的面纱

进入课程

为什么有时候爬虫会卡住不能运行了,但是也没有报错?

我要回答 关注问题
意见反馈 帮助中心 APP下载
官方微信