课程
/后端开发
/Python
/Python开发简单爬虫
请问出现这样的情况有啥原因么
2018-12-27
源自:Python开发简单爬虫 7-7
正在回答
把html_parser.py 文件 里面的一行改成links = soup.find_all('a', href=re.compile(r'/item/+'))
请问你的问题解决了吗,我也是同样的情况,并且本身就是用urllib.request
还是只能爬取俩页
把import urllib 换成import urllib.request 试试
举报
本教程带您解开python爬虫这门神奇技术的面纱