为了账号安全,请及时绑定邮箱和手机立即绑定

Python开发简单爬虫

蚂蚁帅帅 全栈工程师
难度初级
时长 1小时14分
学习人数
综合评分9.67
646人评价 查看评价
9.9 内容实用
9.6 简洁易懂
9.5 逻辑清晰

已采纳回答 / 飘过的小呆呆
当然可以 我之前是用.NET C#写过爬虫 你可以参考下这个网址http://www.cnblogs.com/bqh10086/p/6405121.html     c++ 原理也是类似的 发送get请求页面数据 然后把页面读取成字节流,最后分析字节流保留有用的数据

已采纳回答 / 慕容2517008
嗯。。。。因为python的那个百度百科的页面的html代码升级了一哈,原本的抓取URl的代码不能用了,你把parser里面的_get_new_urls这个函数的re.compile语句后面的正则表达式改一下,改成这样re.compile(r"/item/")就ok了

已采纳回答 / 慕慕tyt
单引号更快运行,还有注意中英文

已采纳回答 / zjxjwxk
你安装了吗? cmd窗口中cd 到 Python\Scripts目录下,执行pip install beautifulsoup4 安装然后 from bs4 import BeautifulSoup 就行啦我用的也是Sublime

已采纳回答 / zhegao
约定. 就像你现在写的中文我能看懂一样. 这个模块的开发者让自己的程序这样去解读, 不过是中间转换一层罢了.

已采纳回答 / 大码哥
pychrm每次新建工程会默认建一个Python环境,改下就行。pychrm右上角运行左边有个菜单选项,点进去选择edit开头那个,把Python interpreter那栏选择为你的Python程序,点击OK,之后你安装的模块就正常导入使用了

已采纳回答 / Ghoest_
.对任意字符进行匹配 如:re.compile(r'/item/.+' );

已采纳回答 / 纯爱枫若情
我用的就是Python 3.6.1,你可以去我的github看源码,我自己做了一些修改,上面还提供了爬取后的生成的页面的效果图

已采纳回答 / 无人与我书半生
是指定Beautiful的解析器为“html.parser”还有BeautifulSoup(markup,"lxml")BeautifulSoup(markup, "lxml-xml") BeautifulSoup(markup,"xml")等等很多种

已采纳回答 / 慕姐7359191
页面  html_downloader.py15行   print response.read()   更改为  return response.read()

已采纳回答 / Lovins
添加到 url管理器中才能循环访问 url,爬取相关数据。如果不添加进去,只会爬取 root_url的数据了。
课程须知
本课程是Python语言开发的高级课程 1、Python编程语法; 2、HTML语言基础知识; 3、正则表达式基础知识;
老师告诉你能学到什么?
1、爬虫技术的含义和存在价值 2、爬虫技术架构 3、组成爬虫的关键模块:URL管理器、HTML下载器和HTML解析器 4、实战抓取百度百科1000个词条页面数据的抓取策略设定、实战代码编写、爬虫实例运行 5、一套极简的可扩展爬虫代码,修改本代码,你就能抓取任何互联网网页!

微信扫码,参与3人拼团

意见反馈 帮助中心 APP下载
官方微信
友情提示:

您好,此课程属于迁移课程,您已购买该课程,无需重复购买,感谢您对慕课网的支持!

本次提问将花费2个积分

你的积分不足,无法发表

为什么扣积分?

本次提问将花费2个积分

继续发表请点击 "确定"

为什么扣积分?

举报

0/150
提交
取消