为了账号安全,请及时绑定邮箱和手机立即绑定

只爬了两条,同样没有报错

craw 1 : http://baike.baidu.com/view/21087.htm

craw 2 : http://baike.baidu.com/view/10812319.htm



正在回答

6 回答

正则修改成:links=soup.find_all('a',href=re.compile(r"/item/"))

2 回复 有任何疑惑可以回复我~

正则表达式怎么改的呢,求指点一下

0 回复 有任何疑惑可以回复我~

问题解决了,正则表达式的问题,改一下就好了~

0 回复 有任何疑惑可以回复我~
#1

汤宇0

兄弟你怎么改的呀
2017-03-23 回复 有任何疑惑可以回复我~
#2

紫若寒璿

同问,如何修改
2017-03-25 回复 有任何疑惑可以回复我~
#3

慕粉2204181651

兄弟你是怎么改的?
2017-03-25 回复 有任何疑惑可以回复我~
查看1条回复

craw 1 : http://baike.baidu.com/link?url=FD0ihkKo32690Z9EihLCcKeW9WjhKJeuY03L049nFNyvqyLmC5euGmadSVV3LutYuMXGAhNgNOa667jDAo4AV_

craw 2 : http://baike.baidu.com/view/10812319.htm

你看喽~

0 回复 有任何疑惑可以回复我~

可以的啊,我两个url都试过啊

0 回复 有任何疑惑可以回复我~

现在的URL地址都变了~你怎么爬出来第二个的

0 回复 有任何疑惑可以回复我~
#1

qq_宇鳴_0 提问者

你有没有试过啊...
2017-03-22 回复 有任何疑惑可以回复我~

举报

0/150
提交
取消
Python开发简单爬虫
  • 参与学习       227670    人
  • 解答问题       1219    个

本教程带您解开python爬虫这门神奇技术的面纱

进入课程

只爬了两条,同样没有报错

我要回答 关注问题
意见反馈 帮助中心 APP下载
官方微信