scrapy抓取网页返回的是404页面应该怎么做?
http://www.example.com/artiles/1http://www.example.com/artiles/2.........http://www.example.com/artile...比如要抓取上面共20页的内容,些第2页面不存在,返回的是404页面,然后scrapy就停止了### 问题描述
问题出现的环境背景及自己尝试过哪些方法
相关代码
http://www.example.com/artiles/1http://www.example.com/artiles/2.........http://www.example.com/artile...
你期待的结果是什么?实际看到的错误信息又是什么?
如何解决停止问题
2 回答
明月笑刀无情
TA贡献1828条经验 获得超4个赞
class MySpider(CrawlSpider):
handle_httpstatus_list = [404]
这样你就能处理你的404请求,在你自己定义的Request的call_back函数中。
添加回答
举报
0/150
提交
取消