为了账号安全,请及时绑定邮箱和手机立即绑定

urllib2中的request.add_data()的作用

在老师讲的第二种方法中,用到了request.add_data('a','1')方法,不是很清楚这个方法的作用是什么?把'a','1'添加到网页中?

个人用的是python2.7,使用request.add_data('a','1')报错,如下

    request.add_data('a','1')

TypeError: add_data() takes exactly 2 arguments (3 given)

请问下,是什么造成这个错误的?


正在回答

3 回答

www.baidu.com   只是首页 你要用他干什么呢 比如 你要用它搜索 python 他的链接请求就会变成 www.baidu.com?wd=python  (这只是给你简单解释下 真实的链接比较复杂 做了很多处理) 自己搜下 看下地址栏就知道了,简单来说 就根据不同的请求参数 可以让我抓取不同的页面和内容。

ps:去了解HTTP协议的get请求和post请求。

1 回复 有任何疑惑可以回复我~
#1

轩辕Go 提问者

非常感谢!
2016-11-13 回复 有任何疑惑可以回复我~

python2.0版本导入cookielib直接import cookielib

python 3.6 改成 http.cookiejar了


0 回复 有任何疑惑可以回复我~

add_data() 给请求链接添加参数 增加之后  url变成 http://www.baidu.com?w=1 现在这个方法已经变了 只能传入俩个参数,具体看视频下面的评论有慕友解释过了

0 回复 有任何疑惑可以回复我~
#1

轩辕Go 提问者

http://www.baidu.com?w=1 变成这样以后,有什么意义,和我们平时www.baidu.com访问有什么区别?
2016-11-13 回复 有任何疑惑可以回复我~
#2

丶子非鱼 回复 轩辕Go 提问者

对于百度首页来说没啥意义 其他网址可能用到 注意看一些你自己浏览的网址吧 你就知道了
2017-12-24 回复 有任何疑惑可以回复我~

举报

0/150
提交
取消
Python开发简单爬虫
  • 参与学习       227670    人
  • 解答问题       1219    个

本教程带您解开python爬虫这门神奇技术的面纱

进入课程

urllib2中的request.add_data()的作用

我要回答 关注问题
意见反馈 帮助中心 APP下载
官方微信