为了账号安全,请及时绑定邮箱和手机立即绑定

Python网页抓取:如何跳过url错误

Python网页抓取:如何跳过url错误

料青山看我应如是 2022-06-28 11:02:55
我正在尝试抓取网页(“coinmarketcap”)。我正在抓取所有加密货币从 2013 年到 2019 年 10 月(开盘价、最高价、最低价、收盘价、市值、成交量)的数据。for j in range (0,name_size):   url = ("https://coinmarketcap.com/currencies/" + str(name[j]) + "/historical-data/?start=20130429&end=20191016")   page = urllib.request.urlopen(url)   soup = BeautifulSoup(page, 'html.parser')   priceDiv = soup.find('div', attrs={'class':'table-responsive'})rows = priceDiv.find_all('tr')问题是某些网址不存在。我不知道如何跳过这些。你能帮我么?
查看完整描述

2 回答

?
人到中年有点甜

TA贡献1895条经验 获得超7个赞

利用try-except


for j in range (0,name_size):

   url = ("https://coinmarketcap.com/currencies/" + str(name[j]) + "/historical-data/?start=20130429&end=20191016")

   try: 

       page = urllib.request.urlopen(url)

       soup = BeautifulSoup(page, 'html.parser')

       priceDiv = soup.find('div', attrs={'class':'table-responsive'})

   except:

       print("Coult not open url")


rows = priceDiv.find_all('tr')


查看完整回答
反对 回复 2022-06-28
?
一只斗牛犬

TA贡献1784条经验 获得超2个赞

使用错误捕获。


try: 

    #do the thing

except Exception as e:

    #here you can print the error

错误的将被打印消息跳过,否则任务继续


查看完整回答
反对 回复 2022-06-28
  • 2 回答
  • 0 关注
  • 258 浏览
慕课专栏
更多

添加回答

举报

0/150
提交
取消
意见反馈 帮助中心 APP下载
官方微信