-
import urllib2
url = "www.baidu.com"
response1 = urllib1.urlopen(url)
print response1.getcode()
print len(response1.read())
print "第二种方法"
request = urllib2.Request(url)
request.add_header("user-agent","Mozilla/5.0")
response2 = urllib2.urlopen(request)
print response1.getcode()
print len(response1.read())
查看全部 -
课程详细,棒查看全部
-
URL管理器,网页下载器,网页解释器,三者循环查看全部
-
自定义查看全部
-
set() set()查看全部
-
网页下载器:将互联网URL对应的网页下载到本地的工具
查看全部 -
urllib2方法2
查看全部 -
urllib2网页下载请
查看全部 -
if count == 1000:
break
count = count + 1
查看全部 -
import urllib2, cookielib #创建cookie容器 cj = cookielib.CookieJar() #创建1个opener cj = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj)) #给urllib2安装opener urllib2.install_opener(opener) #使用带有cookie的urllib2访问网页 response = urllib2.urlopen('http://www.baidu.com/')
有些网页需要用户登录才能访问:添加HTTPCookieProcessor
需要代理访问:ProxyHandler
协议是HTTPS加密访问:HTTPSHandler
URL相互自动跳转关系:HTTPRedirectHandler
查看全部 -
import urllib2 #创建request对象 request = urllib2.Request(url) #添加数据 request.add_data('a','1') #添加http的header request.add_header('User-Agent', 'Mozilla/5.0') #发送请求获取结果 response = urllib2.urlopen(request)
查看全部 -
#import 模块 import urllib2 #直接请求 response = urllib2.urlopen('http://www.baidu.com') #获取状态码,如果是200表示获取成功 print response.getcode() #读取内容 cont = response.read()
查看全部 -
网页提取器:从网页中提取有价值的工具查看全部
-
网页下载器分三种查看全部
-
下载器:将url网页内容下载到本地的工具查看全部
举报
0/150
提交
取消