为了账号安全,请及时绑定邮箱和手机立即绑定

为什么我的只爬了条就失败了,和老师的代码一样的。结果就出了一个craw 1 : http://baike.baidu.com/item/Python craw failed

。。。。。


正在回答

5 回答

问下这个问题有解决的吗?都改了还是不行


1 回复 有任何疑惑可以回复我~

links = soup.find_all('a', href=re.compile(r'/item/.*?'))

0 回复 有任何疑惑可以回复我~
#1

梦想中的A神

这个正则表达式是什么意思? .代表任意字符 *表示前一个字符0个或者无限个,可是有了*为啥后面还有个?号,?不是代表前一个字符0次或者1次吗?求解答一下 还有就是我只能爬148条就报错了。
2017-07-31 回复 有任何疑惑可以回复我~
#2

燃学 回复 梦想中的A神

*?是非贪婪匹配,即尽可能少的去匹配
2018-02-28 回复 有任何疑惑可以回复我~
#3

慕斯卡7677556 回复 燃学

但是我这样改了以后还是指出来一条诶。。。不知道是怎么回事
2018-05-29 回复 有任何疑惑可以回复我~

我之前也遇到过这种情况,纠结了很久,最后才发现一个非常重要的问题,百度的词条信息发生了变化,你可以仔细看看,现在不再是以 .htm结尾了,之前在html_parser模块中的正则表达式已经失效了,原来是href=re.compile(r"/view/\d+\.htm"),现在应该改为href=re.compile(r'/item/\w+')。这也再次证明了在采集数据前,一定要对目标进行仔细认真的分析!

2 回复 有任何疑惑可以回复我~
#1

慕容2413200

真棒,
2017-08-09 回复 有任何疑惑可以回复我~

我也是 按照上面的改过之后还是不行

请问你弄好了吗

可以告诉我一下方法吗

0 回复 有任何疑惑可以回复我~
#1

Ego_1973

你的改好了吗?我也出现同样的情况.html语法也有改掉
2017-05-18 回复 有任何疑惑可以回复我~
#2

Ramon_Lee

你的是python2.7吗?我查了半天没查出原因,也把网址修改了,解析器的匹配方式也改了, 但是我怎么运行主程序出现错误, craw 1 : None craw failed 貌似第一个网址都解析不出来
2017-05-25 回复 有任何疑惑可以回复我~

我前面也是爬了条,将url改为http://baike.baidu.com/item/Python  parser中改为re.compile(r"\item")就可,虽然爬的内容不一样了。。。 。但是还是能通-,-

0 回复 有任何疑惑可以回复我~
#1

可口

/item
2017-05-04 回复 有任何疑惑可以回复我~

举报

0/150
提交
取消
Python开发简单爬虫
  • 参与学习       227670    人
  • 解答问题       1219    个

本教程带您解开python爬虫这门神奇技术的面纱

进入课程

为什么我的只爬了条就失败了,和老师的代码一样的。结果就出了一个craw 1 : http://baike.baidu.com/item/Python craw failed

我要回答 关注问题
意见反馈 帮助中心 APP下载
官方微信