为了账号安全,请及时绑定邮箱和手机立即绑定

和别人代码一样,为什么爬两行就停了

和别人代码一样,为什么爬两行就停了

craw 1 : https://baike.baidu.com/view/21087.htm
craw 2 : https://baike.baidu.com/view/10812319.htm

正在回答

5 回答

这个视频是15年的,百度百科现在的链接把view改成了item,你把正则表达式匹配的那部分view和后面的部分全部去掉改成item就可以了

0 回复 有任何疑惑可以回复我~

具体可看https://github.com/lzcdev/BaiDuBaiKeSpider,希望对你有帮助

0 回复 有任何疑惑可以回复我~

1.遇到这种情况,先把try expect注释掉,就可以看到真正的报错:

urllib.error.URLError: <urlopen error [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed (_ssl.c:748)>

2.解决方案:

spider_main.py中加入:

import ssl
ssl._create_default_https_context = ssl._create_unverified_context

原因:会验证SSL 证书,而百度的https直接会失败。需要unverified处理。


0 回复 有任何疑惑可以回复我~

改成这个

links = soup.find_all('a', href=re.compile(r"/item/"))

0 回复 有任何疑惑可以回复我~

代码呢

0 回复 有任何疑惑可以回复我~

举报

0/150
提交
取消
Python开发简单爬虫
  • 参与学习       227670    人
  • 解答问题       1219    个

本教程带您解开python爬虫这门神奇技术的面纱

进入课程

和别人代码一样,为什么爬两行就停了

我要回答 关注问题
意见反馈 帮助中心 APP下载
官方微信