为了账号安全,请及时绑定邮箱和手机立即绑定

【Python3~爬虫工具】使用requests库

标签:
Python


使用python爬虫其实就是方便,它会有各种工具类供你来使用,很方便。Java不可以吗?也可以,使用httpclient工具、还有一个大神写的webmagic框架,这些都可以实现爬虫,只不过python集成工具库,使用几行爬取,而Java需要写更多的行来实现,但目的都是一样。

下面介绍requests库简单使用:

#!/usr/local/env python#  coding:utf-8import requests#下面开始介绍requests的使用,环境语言是python3,使用下面的网址作为参考#http://www.sse.com.cn/market/bonddata/data/tb/request_param = {'jsonCallBack': 'jsonpCallback6588',            'isPagination': 'true',            'sqlId': 'COMMON_BOND_XXPL_ZQXX_L',            'BONDTYPE': '地×××府债券',            'pageHelp.pageSize': '25',            'pageHelp.pageNo': '2',            'pageHelp.beginPage': '2',            'pageHelp.cacheSize': '1',            'pageHelp.endPage': '21'}user_agent = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.146 Safari/537.36'referer = 'http://www.sse.com.cn/market/bonddata/data/ltb/'#设置headersheaders = {'User-Agent': user_agent, 'Referer': referer}#设置代理proxy = {    "http":"http://113.214.13.1:8000"}# 需要请求的URL地址request_url = 'http://query.sse.com.cn/commonQuery.do?'#设置请求地址response = requests.get(request_url, headers=headers, proxies=proxy, params=request_param);print(response.status_code)#文本响应内容print(response.text)#json格式响应内容print(response.json())#二进制响应内容print(response.content)#原始格式print(response.raw)


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消