问题描述抓取类似知乎的回答 由于知乎的回答有的非常多 所以用了response.save来存前面爬去的结果由于知乎站点不能爬取太快 可能有导致任务不能及时完成所以taskdb需要存取的数据非常多 那个项目的taskdb接近250GB你期待的结果是什么?实际看到的错误信息又是什么?pyspider是否支持mongodb集群作为taskdb然后应该怎么配置...
添加回答
举报
0/150
提交
取消