刚开始学习python爬虫,想实现对搜狗公众号搜索结果的爬取发现问题是抓到的信息没有直接在浏览器访问的URL信息完整。以下是基本实现,代码很简单,爬取到的页面中没有“最近文章”(在浏览器中直接访问有“最近文章”内容)请高手们指点一二,谢谢!#-*- coding: utf-8 -*-import urllib2import sysimport urllibfrom bs4 import BeautifulSoup
reload(sys)
sys.setdefaultencoding('utf8')
url = 'http://weixin.sogou.com/gzh?openid=oIWsFt5l9RDYeAjdXZBYtGzbH0JI'print url
i_headers = {"User-Agent":"Mozilla/5.0 (Macintosh; Intel Mac OS X 10.9; rv:32.0) Gecko/20100101 Firefox/32.0"}
req = urllib2.Request(url, headers=i_headers)
content = urllib2.urlopen(req).read()
soup = BeautifulSoup(content)print soup
siteUrls = soup.findAll(attrs={'class':'img_box2'})print siteUrls
file_object = open('test.htm','w+')
file_object.write(content)
file_object.close()
- 2 回答
- 0 关注
- 372 浏览
添加回答
举报
0/150
提交
取消