为了账号安全,请及时绑定邮箱和手机立即绑定

BeautifulSoup4 抓取不能超出网站的第一页

BeautifulSoup4 抓取不能超出网站的第一页

斯蒂芬大帝 2021-06-04 14:25:11
我试图从本网站的第一页爬到第 14 页:https : //cross-currents.berkeley.edu/archives?author=&title=&type=All&issue=All®ion=All 这是我的代码:import requests as rfrom bs4 import BeautifulSoup as soupimport pandas #make a list of all web pages' urlswebpages=[]for i in range(15):    root_url = 'https://cross-currents.berkeley.edu/archives?author=&title=&type=All&issue=All&region=All&page='+ str(i)    webpages.append(root_url)    print(webpages)#start looping through all pagesfor item in webpages:      headers = {'User-Agent': 'Mozilla/5.0'}    data = r.get(item, headers=headers)    page_soup = soup(data.text, 'html.parser')#find targeted info and put them into a list to be exported to a csv file via pandas    title_list = [title.text for title in page_soup.find_all('div', {'class':'field field-name-node-title'})]    title = [el.replace('\n', '') for el in title_list]#export to csv file via pandas    dataset = {'Title': title}    df = pandas.DataFrame(dataset)    df.index.name = 'ArticleID'    df.to_csv('example31.csv',encoding="utf-8")输出 csv 文件仅包含最后一页的目标信息。当我打印“网页”时,它显示所有页面的网址都已正确放入列表中。我究竟做错了什么?先感谢您!
查看完整描述

2 回答

  • 2 回答
  • 0 关注
  • 127 浏览
慕课专栏
更多

添加回答

举报

0/150
提交
取消
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号