为了账号安全,请及时绑定邮箱和手机立即绑定

Python开发简单爬虫

蚂蚁帅帅 全栈工程师
难度初级
时长 1小时14分
学习人数
综合评分9.67
646人评价 查看评价
9.9 内容实用
9.6 简洁易懂
9.5 逻辑清晰
(⊙o⊙)哦,原来是这样!路还遥远,我要继续学习!
def get_new_urls(self, page_url, soup):
new_urls = set()
#正则匹配:/view/FLOSS.htm
links = soup.find_all('a', href=re.compile(r'/item/\w+'))
for link in links:
…………
…………
return new_urls
学习中,希望有用
小白们,一起努力吧
老师讲解的很好,思路清晰,浅显易懂
这个视频讲的是初学爬虫又不是初学 Python ,还说新手听不懂,对 Python 都没什么了解就先去看看 Python 入门好了。。。循序渐进不好么
老师很厉害啊!
不得不说讲师的思路很清晰,我只学习了python的基础知识就完全能听懂了。但是教程似乎是python2的不是3的。希望讲师继续出新的教程。
@弃F忆
python -m pip install --upgrade pip 升级pip

python -m pip install beautifulsoup4
按 这个做法可以
Pycharm快速创建类 是 alt+回车
最最最……好的老师,没有之一,声音清晰,语速适中,底气足,哈哈,人一定也帅得不要不要滴!
print('Third Method')
cj = http.cookiejar.CookieJar()
opener = request.build_opener(request.HTTPCookieProcessor(cj))
request.install_opener(opener)
response3 = request.urlopen(url)
print(response3.getcode())
print(cj)
print(response3.read().decode("utf-8"))
print('Second Method')
req = request.Request(url)
req.add_header('user-agent', 'Mozilla/5.0')
response2 = request.urlopen(req)
print(response2.getcode())
print(len(response2.read()))
from urllib import request
import http.cookiejar

url = 'http://www.baidu.com'


print('First Method')
response1 = request.urlopen(url)
print(response1.getcode())
print(len(response1.read()))
最好的老师,没有之一,哈哈
课程须知
本课程是Python语言开发的高级课程 1、Python编程语法; 2、HTML语言基础知识; 3、正则表达式基础知识;
老师告诉你能学到什么?
1、爬虫技术的含义和存在价值 2、爬虫技术架构 3、组成爬虫的关键模块:URL管理器、HTML下载器和HTML解析器 4、实战抓取百度百科1000个词条页面数据的抓取策略设定、实战代码编写、爬虫实例运行 5、一套极简的可扩展爬虫代码,修改本代码,你就能抓取任何互联网网页!

微信扫码,参与3人拼团

意见反馈 帮助中心 APP下载
官方微信
友情提示:

您好,此课程属于迁移课程,您已购买该课程,无需重复购买,感谢您对慕课网的支持!

本次提问将花费2个积分

你的积分不足,无法发表

为什么扣积分?

本次提问将花费2个积分

继续发表请点击 "确定"

为什么扣积分?

举报

0/150
提交
取消