为了账号安全,请及时绑定邮箱和手机立即绑定

我的网络爬虫陷入了循环

我的网络爬虫陷入了循环

慕的地10843 2023-09-12 15:09:29
我正在制作一个网络爬虫,当我尝试抓取一页数据时,它会不断加载相同的信息。from urllib.request import urlopen as uReqfrom bs4 import BeautifulSoup as soup my_url = 'https://www.realtor.com/realestateagents/phoenix_az'#opening up connection, grabbing the pageuClient = uReq(my_url)#read page page_html = uClient.read()#close pageuClient.close()#html parsingpage_soup = soup(page_html, "html.parser")#finds all realtors on page containers = page_soup.findAll("div",{"class":"agent-list-card clearfix"})for container in containers:    name = page_soup.find('div', class_='agent-name text-bold')    agent_name = name.text.strip()    number = page_soup.find('div', class_='agent-phone hidden-xs hidden-xxs')    agent_number = number.text.strip()    print("name: " + agent_name)    print("number: " + agent_number)
查看完整描述

1 回答

?
红颜莎娜

TA贡献1842条经验 获得超12个赞

解决办法是在循环内搜索container而不是在page_soup循环内搜索。

此外,您应该检查是否有结果或捕获抛出的异常。


查看完整回答
反对 回复 2023-09-12
  • 1 回答
  • 0 关注
  • 54 浏览
慕课专栏
更多

添加回答

举报

0/150
提交
取消
意见反馈 帮助中心 APP下载
官方微信