最新回答 / 慕姐2343858
百科的链接改为:"https://baike.baidu.com/item/Python/407313"然后重新定义html_parser中的正则表达式试试?links = soup.find_all('a', href=re.compile(r"/item/.*"))
2020-07-01
最赞回答 / qq_慕妹1369220
import urllib.request from http import cookiejar url='https://www.baidu.com/' print('第一种方法') response1=urllib.request.urlopen(url) print(response1.getcode()) print(len(response1.read())) print('第二种方法') request = urllib.requ...
2020-05-21
第三种方法,urlopen的时候应该用初始化好的可以存储cookie类型的opener才对哇,如下:
response3 = opener.open(url)
response3 = opener.open(url)
2020-05-05