print('Second Method')
req = request.Request(url)
req.add_header('user-agent', 'Mozilla/5.0')
response2 = request.urlopen(req)
print(response2.getcode())
print(len(response2.read()))
req = request.Request(url)
req.add_header('user-agent', 'Mozilla/5.0')
response2 = request.urlopen(req)
print(response2.getcode())
print(len(response2.read()))
2017-05-05
from urllib import request
import http.cookiejar
url = 'http://www.baidu.com'
print('First Method')
response1 = request.urlopen(url)
print(response1.getcode())
print(len(response1.read()))
import http.cookiejar
url = 'http://www.baidu.com'
print('First Method')
response1 = request.urlopen(url)
print(response1.getcode())
print(len(response1.read()))
2017-05-05
已采纳回答 / SiCheng_Sheen
我之前也遇到过这种情况,纠结了很久,最后才发现一个非常重要的问题,百度的词条信息发生了变化,你可以仔细看看,现在不再是以 .htm结尾了,之前在html_parser模块中的正则表达式已经失效了,原来是href=re.compile(r"/view/\d+\.htm"),现在应该改为href=re.compile(r'/item/\w+')。这也再次证明了在采集数据前,一定要对目标进行仔细认真的分析!
2017-05-05
1.url: urlopen().getCode() ==200
Request , url,data,header
Request , url,data,header
2017-05-03
最赞回答 / SiCheng_Sheen
我之前也遇到过这种情况,纠结了很久,最后才发现一个非常重要的问题,百度的词条信息发生了变化,你可以仔细看看,现在不再是以 .htm结尾了,之前在html_parser模块中的正则表达式已经失效了,原来是href=re.compile(r"/view/\d+\.htm"),现在应该改为href=re.compile(r'/item/\w+')。这也再次证明了在采集数据前,一定要对目标进行仔细认真的分析!
2017-05-03