为了账号安全,请及时绑定邮箱和手机立即绑定

Python开发简单爬虫

蚂蚁帅帅 全栈工程师
难度初级
时长 1小时14分
学习人数
综合评分9.67
646人评价 查看评价
9.9 内容实用
9.6 简洁易懂
9.5 逻辑清晰
wat a crap tutorial
待我学成归来,我就爬你!
以前安装的spyder,自带bs4模块
beautifulsoup就是解析html语言的东西
都是死程序员,互相叫什么劲2333
悄悄说一句,我学过c,c++,java,js,html再看这个根本乌鸦梨,应该没有人会发现
百度百科目前url 没有htm结尾,需要修改正则匹配规则为re.compile(r"/item/+")
类似 url https://baike.baidu.com/item/%E7%99%BE%E5%BA%A6%E7%99%BE%E7%A7%91%EF%BC%9A%E9%94%81%E5%AE%9A%E8%AF%8D%E6%9D%A1
这软件是eclipse小兄弟们,要配置jer,jdk的哦?
到这一节开始慌了吧,小兄弟们,#笑#笑#笑#笑
python -m pip install bs4

from bs4 import BeautifulSoup
print("第三种方法")
cj = http.cookiejar.CookieJar()
opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor(cj))
urllib.request.install_opener(opener)
response3 = urllib.request.urlopen(url)
print(response3.getcode())
print(cj)
print(response3.read())
print("第二种方法")
request = urllib.request.Request(url)
request.add_header("user-agent", 'Mozilla/5.0')
response2 = urllib.request.urlopen(request)
print(response2.getcode())
print(len(response2.read()))
# coding:utf-8
import urllib.request,http.cookiejar

url = "http://www.baidu.com"
print("第一种方法")
response1 = urllib.request.urlopen(url)
print(response1.getcode())
print(len(response1.read()))
#coding=utf-8
import urllib, http.cookiejar
#创建cookie容器
cj = http.cookiejar.CookieJar()
#创建1个opener
opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor(cj))
#给urlib安装opener
urllib.request.install_opener(opener)
response = urllib.request.urlopen("http://www.baidu.com")
老师是带你入门,以后靠自己,谢谢老师分享
课程须知
本课程是Python语言开发的高级课程 1、Python编程语法; 2、HTML语言基础知识; 3、正则表达式基础知识;
老师告诉你能学到什么?
1、爬虫技术的含义和存在价值 2、爬虫技术架构 3、组成爬虫的关键模块:URL管理器、HTML下载器和HTML解析器 4、实战抓取百度百科1000个词条页面数据的抓取策略设定、实战代码编写、爬虫实例运行 5、一套极简的可扩展爬虫代码,修改本代码,你就能抓取任何互联网网页!

微信扫码,参与3人拼团

意见反馈 帮助中心 APP下载
官方微信
友情提示:

您好,此课程属于迁移课程,您已购买该课程,无需重复购买,感谢您对慕课网的支持!

本次提问将花费2个积分

你的积分不足,无法发表

为什么扣积分?

本次提问将花费2个积分

继续发表请点击 "确定"

为什么扣积分?

举报

0/150
提交
取消