为了账号安全,请及时绑定邮箱和手机立即绑定

Python开发简单爬虫

蚂蚁帅帅 全栈工程师
难度初级
时长 1小时14分
学习人数
综合评分9.67
646人评价 查看评价
9.9 内容实用
9.6 简洁易懂
9.5 逻辑清晰
感谢老师带我们入门,感觉学到了很多
爬了一个之后就不爬了,错误提示:__init__() got an unexpected keyword argument 'from_Encoding'
getcode() 200页面请求的状态值,分别有:200请求成功、303重定向、400请求错误、401未授权、403禁止访问、404文件未找到、500服务器错误
from bs4 import BeautifulSoup
soup = BeautifulSoup(html_doc,'html.parser')
print('所有链接')
links = soup.find_all('a')
for link in links:
print(link.name,link["href"],link.get_text())
没报错,但只输出了一条记录,第二条就failed,然后就没了
Traceback (most recent call last):
File "C:\Users\cjj\workspace\imooc\test\test_bs4.py", line 39, in <module>
print p_node.name, p_node.get_text()
AttributeError: 'NoneType' object has no attribute 'name'

这到底是错在哪里了
百度经验置顶那个下载安装包到Python3.5目录的方法死活都识别你在把BeautifulSoup4往Python2.7里安,换4.4.1,4.4.5都这么坑,不知道什么原理。还是照着视频里老老实实来,给安好了
PNA
老师讲的很好,看完还有点不舍
https://www.crummy.com/software/BeautifulSoup/bs4/doc/#installing-beautiful-soup
赞一个,第一次运行在beautifulsoup里面吧html.parser写错了,第二次正常运行
PNA
1.25X 速度听起来带劲
有点广度优先搜索算法的意思,不过处理比较粗糙,已爬取过的url没有标记,会导致重复爬取
用 python 3.x 写的例子,能正常运行:

https://github.com/zaxlct/baike_spider

加了不少注释,帮助理解,稍微优化了一点:如果页面 404 ,那么就跳过这次抓取,这样就不报错,提示 failed 了。

欢迎 star,有问题可以发 Issues 我会回答 ;)
课程须知
本课程是Python语言开发的高级课程 1、Python编程语法; 2、HTML语言基础知识; 3、正则表达式基础知识;
老师告诉你能学到什么?
1、爬虫技术的含义和存在价值 2、爬虫技术架构 3、组成爬虫的关键模块:URL管理器、HTML下载器和HTML解析器 4、实战抓取百度百科1000个词条页面数据的抓取策略设定、实战代码编写、爬虫实例运行 5、一套极简的可扩展爬虫代码,修改本代码,你就能抓取任何互联网网页!

微信扫码,参与3人拼团

意见反馈 帮助中心 APP下载
官方微信
友情提示:

您好,此课程属于迁移课程,您已购买该课程,无需重复购买,感谢您对慕课网的支持!

本次提问将花费2个积分

你的积分不足,无法发表

为什么扣积分?

本次提问将花费2个积分

继续发表请点击 "确定"

为什么扣积分?

举报

0/150
提交
取消