为了账号安全,请及时绑定邮箱和手机立即绑定

Python开发简单爬虫

蚂蚁帅帅 全栈工程师
难度初级
时长 1小时14分
学习人数
综合评分9.67
646人评价 查看评价
9.9 内容实用
9.6 简洁易懂
9.5 逻辑清晰
老师厉害了,不但免费讲的还清楚最后还实战!我喜欢!
厉害,值得一看

最新回答 / qq_海之星_03857916
按道理不会的;我这边用idea;使用第一种方式是没有问题的;第一种方式,节约一个变量的开销,应该是更优的
first method
200

Traceback (most recent call last):
File "C:/Python27/test/pachong.py", line 9, in <module>
print len(response1.read())
File "C:\Python27\lib\socket.py", line 355, in read
data = self._sock.recv(rbufsize)

已采纳回答 / 请叫我百度
在代码的最顶上加入# coding:utf-8 
“要想学好爬虫,大家的路还长着呢”,哈哈,老师太诚实了
老师,我的运行只有一条数据,其他都报craw failed
urllib.parse 导入失败
爬取几百个之后就卡那不动了……
大家写代码真的如果没有IDE的话,如果有IDE的话 其实还是很容易出错,
刚开始应该不用try
因为 这样很容易找不到出错的地方,
去掉后找错误 那是编译器帮你找了 =-=
我第一次看也没看下去。后来因为需要在网上看了一些教程,都是一笔带过,或者直接给源码。只有了解了一下名词和流程,再看老师的视频,感觉真是简单易懂。
老师的讲的好有激情!

已采纳回答 / 请叫我百度
第一:baike_spider是你创建的包,你所说的url_manager肯定是放在包中的代码,是可以import进去了。第二:只爬取一个网址就结束应该是html_parser中的代码有问题,比如课程中的匹配策略与现在的百度Python词条不匹配,需要改成href = re.compile(r"/item/.*")   再或者find_all  不要丢了下划线,我就没注意到下划线,所以只输出了1条记录就craw faild了。
课程须知
本课程是Python语言开发的高级课程 1、Python编程语法; 2、HTML语言基础知识; 3、正则表达式基础知识;
老师告诉你能学到什么?
1、爬虫技术的含义和存在价值 2、爬虫技术架构 3、组成爬虫的关键模块:URL管理器、HTML下载器和HTML解析器 4、实战抓取百度百科1000个词条页面数据的抓取策略设定、实战代码编写、爬虫实例运行 5、一套极简的可扩展爬虫代码,修改本代码,你就能抓取任何互联网网页!

微信扫码,参与3人拼团

意见反馈 帮助中心 APP下载
官方微信
友情提示:

您好,此课程属于迁移课程,您已购买该课程,无需重复购买,感谢您对慕课网的支持!

本次提问将花费2个积分

你的积分不足,无法发表

为什么扣积分?

本次提问将花费2个积分

继续发表请点击 "确定"

为什么扣积分?

举报

0/150
提交
取消