为了账号安全,请及时绑定邮箱和手机立即绑定

Python开发简单爬虫

蚂蚁帅帅 全栈工程师
难度初级
时长 1小时14分
学习人数
综合评分9.67
646人评价 查看评价
9.9 内容实用
9.6 简洁易懂
9.5 逻辑清晰

最新回答 / 慕粉1006301048
我也是个这个问题。刚刚才看视频,请问你解决了吗?

最赞回答 / 慕粉1474879821
第5行应该用Requset()这个方法:request = urllib2.Requset(url)

最新回答 / qq_深圳_04368933
可以贴的详细一点吗,我感觉你把BeautifulSoupHTMLParser这个函数的参数个数或者参数类型传错了吧

最新回答 / qq_深圳_04368933
你直接就urllib.urlopen(url)就行了吧,不需要request了?

最新回答 / 随风丶琳
在html_outputer.py中,for data in self.datas下设置fout.write(…… .encode('UTF-8'))

最赞回答 / 所为伊人
如果某项请求发送到您的服务器要求显示您网站上的某个网页(例如,用户通过浏览器访问您的网页或 Googlebot 抓取网页时),服务器将会返回 HTTP 状态码响应请求。此状态码提供关于请求状态的信息,告诉 Googlebot 关于您的网站和请求的网页的信息。一些常见的状态码为:200 – 服务器成功返回网页404 – 请求的网页不存在503 – 服务器超时下面提供 HTTP 状态码的完整列表。点击链接可了解详情。您也可以访问 HTTP 状态码上的 W3C 页获取更多信息。1xx(临时响应) 表示临时响应并...

最新回答 / cryengine3
本人新手,想照着写个爬虫练练手,结果给我来了个下马威

最新回答 / 六边形怪瓜
报错信息说明 soup.find("dd",class_="lemmaWgt-lemmaTitle-title") 这一段没找到东西,所以返回的是None,你继续对None调用find函数当然就报错了,代码是这样没错,这说明爬取的网页格式不对,你可以再这行前面输出page_url,自己在浏览器访问后用教程中的方法审查元素,看看是网页的什么问题

最新回答 / Ranbo_qiu
你可以把try: except:给注释掉,让你的程序出现错误,你就知道你哪里错误了

最新回答 / 慕码人5926626
求pydev安装方法,试了很多,都不行。1【Help】-【Install New Software】;2 选择【Archive】,然后选择下载的离线;3 直接将下载的离线包解压,得到plugins和features文件夹,放到Eclipse的dropins目录下.。都不行,晕了
课程须知
本课程是Python语言开发的高级课程 1、Python编程语法; 2、HTML语言基础知识; 3、正则表达式基础知识;
老师告诉你能学到什么?
1、爬虫技术的含义和存在价值 2、爬虫技术架构 3、组成爬虫的关键模块:URL管理器、HTML下载器和HTML解析器 4、实战抓取百度百科1000个词条页面数据的抓取策略设定、实战代码编写、爬虫实例运行 5、一套极简的可扩展爬虫代码,修改本代码,你就能抓取任何互联网网页!

微信扫码,参与3人拼团

意见反馈 帮助中心 APP下载
官方微信
友情提示:

您好,此课程属于迁移课程,您已购买该课程,无需重复购买,感谢您对慕课网的支持!

本次提问将花费2个积分

你的积分不足,无法发表

为什么扣积分?

本次提问将花费2个积分

继续发表请点击 "确定"

为什么扣积分?

举报

0/150
提交
取消