为了账号安全,请及时绑定邮箱和手机立即绑定

Python开发简单爬虫

蚂蚁帅帅 全栈工程师
难度初级
时长 1小时14分
学习人数
综合评分9.67
646人评价 查看评价
9.9 内容实用
9.6 简洁易懂
9.5 逻辑清晰
这个有源码么
看了前面课程讲解感觉很清晰也跟得上,这节突然开始面向对象编程........
自己之前写的爬虫全是函数式的,老师讲的这个框架和这种写代码的思路着实应该好好研习
完结撒花~~~
虽然遇到了bug,但是总算是调试好了,跟着这位老师入门爬虫,是个不错的选择呀!
Python之简单网络爬虫】BeautifulSoup——按节点的名字、属性和文字进行搜索(以及正则表达式的使用)
https://blog.csdn.net/weixin_43971764/article/details/86563814
欢迎各位看官光临茶馆~~~~
比油特夫 搜普,讲师口音好可爱哈哈哈哈~
网址不对,百度网址是https://www.baidu.com/,而不是http://www.baidu.com/,他们的长度和cookie都不一样

最赞回答 / 永恒的小白
<...图片...>这一步务必使用函数进行url的拼接,带有中文的url会有编码问题

最赞回答 / 慕丝3084285
老师用的eclipse,也可以用pycharm,我觉得pycharm方便些

最新回答 / YAAnnnnnnnnn
这是编码错误,gbk编码不能够输出为正确的编码格式。原因是win8的python3的默认编码不是utf8,我们只需要将默认编码改为utf8就能解决这个问题,参见下面的代码: 
import sys, io
sys.stdout = io.TextIOWrapper(sys.stdout.buffer,encoding='utf8') # Change default encoding to utf8
爬1000条有些失败,但是基本上可以用了,源码我已经上传了https://github.com/leiphp/spider-baike
在python3.3里面,用urllib.request代替urllib2,另外python3之后,不能再用,print html
注意:print 的东西要用()括起来。
这样的方式,因为print这个时候已经是一个方法了。必须使用下面的方法
可以将代码换成:

import urllib.request
resp=urllib.request.urlopen(&#039;http://www.baidu.com&#039;)
html=resp.read()
print(html)
课程须知
本课程是Python语言开发的高级课程 1、Python编程语法; 2、HTML语言基础知识; 3、正则表达式基础知识;
老师告诉你能学到什么?
1、爬虫技术的含义和存在价值 2、爬虫技术架构 3、组成爬虫的关键模块:URL管理器、HTML下载器和HTML解析器 4、实战抓取百度百科1000个词条页面数据的抓取策略设定、实战代码编写、爬虫实例运行 5、一套极简的可扩展爬虫代码,修改本代码,你就能抓取任何互联网网页!

微信扫码,参与3人拼团

意见反馈 帮助中心 APP下载
官方微信
友情提示:

您好,此课程属于迁移课程,您已购买该课程,无需重复购买,感谢您对慕课网的支持!

本次提问将花费2个积分

你的积分不足,无法发表

为什么扣积分?

本次提问将花费2个积分

继续发表请点击 "确定"

为什么扣积分?

举报

0/150
提交
取消