为了账号安全,请及时绑定邮箱和手机立即绑定

爬不到1000个。。。

有没有人跟我一样运行不到最后就卡住的??这是什么鬼。。。每次爬个几百个就停住了。。

正在回答

7 回答

def _get_new_urls(self, curr_url, soup):
   new_urls = set()
   links = soup.find_all('a', href=re.compile(r"/item/*"))

正则表达式的内容改下就行,网页格式变了

0 回复 有任何疑惑可以回复我~

我就爬了两个~~~


0 回复 有任何疑惑可以回复我~

我第一次爬了1000条,但是再次运行的时候爬了两条就结束了

0 回复 有任何疑惑可以回复我~

可以试试修改一下collect 函数,让它每次收集数据的时候都写入文件,而不是像老师一样最后一次性写入。

0 回复 有任何疑惑可以回复我~
#1

gavin_10

你那个爬出来了吗,我的response一直返回200
2017-03-03 回复 有任何疑惑可以回复我~

来个多线程

0 回复 有任何疑惑可以回复我~


嗯嗯,,有可能啊,感觉程序应该没什么问题,而且每次卡死的时候爬取的数目也不同,最多一次也能爬取900多个

0 回复 有任何疑惑可以回复我~

我感觉是内存的原因吧,数据都在内存保存,最后写入文件的

0 回复 有任何疑惑可以回复我~

举报

0/150
提交
取消
Python开发简单爬虫
  • 参与学习       227670    人
  • 解答问题       1219    个

本教程带您解开python爬虫这门神奇技术的面纱

进入课程

爬不到1000个。。。

我要回答 关注问题
意见反馈 帮助中心 APP下载
官方微信