为了账号安全,请及时绑定邮箱和手机立即绑定

Python爬虫(一) Requests库part1

标签:
Python

Requests库是由python语言编写的HTTP客户端库,常用于编写爬虫和测试服务器响应数据。

1. 安装Requests

Windows系统下,在命令行输入:pip install requests,安装

2. 方法函数-get()

r=requests.get(url,params,**kwargs)

url: 需要爬取的网站地址。

params: 翻译过来就是参数, url中的额外参数,字典或者字节流格式,可选。

**kwargs : 12个控制访问的参数


r对象的属性:

r.status_code http请求的返回状态,若为200则表示请求成功。

r.text http响应内容的字符串形式,即返回的页面内容

r.encoding 从http header 中猜测的相应内容编码方式

r.apparent_encoding 从内容中分析出的响应内容编码方式(备选编码方式)

r.content http响应内容的二进制形式


使用实例1:不带参数的get

>>> import requests

>>>r=requests.get('https://www.baidu.com')

>>> print r

出现<Response [200]>,说明请求成功

>>> print r.encoding

ISO-8859-1

requests会从服务器返回的响应头的 Content-Type 去获取字符集编码,如果content-type有charset字段那么requests才能正确识别编码,否则就使用默认的 ISO-8859-1. 一般那些不规范的页面往往有这样的问题.

解决办法:

requests的返回结果对象里有个apparent_encoding函数, 通过调用chardet.detect()来识别文本编码

>>> r.apparent_encoding

'utf-8'

>>> r.encoding='utf-8'

>>> r.text

此时正确打印出页面HTML

使用实例2:传递参数

参数以键/值对的形式置于 URL 中,跟在一个问号的后面

>>> payload = {'key1': 'value1', 'key2': 'value2', 'key3': None}

>>>r=requests.get('http://httpbin.org/get',params=payload)

>>> print(r.url)

http://httpbin.org/get?key2=value2&key1=value1

使用实例3:传递headers

>>> headers = {'user-agent': 'my-app/0.0.1'}

>>> r = requests.get(url, headers=headers)

使用实例4:传递cookies

>>> url = 'http://httpbin.org/cookies'

>>> cookies = dict(cookies_are='working')

>>> r = requests.get(url, cookies=cookies)

>>> r.text

'{"cookies": {"cookies_are": "working"}}'



作者:顾卿攸宁
链接:https://www.jianshu.com/p/f3650b60b539


点击查看更多内容
1人点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消