我的解析器那里有问题,soup = BeautifulSoup(html_cont,'html.parser'),soup无法返回,也不报错
2019-06-28
最新回答 / qq_王者之心_1
links=soup.find_all("a", href=re.compile(r"/item/*"))html_download 里这里要处理下
url = urllib.parse.quote(url, safe='/:?=.') # 解决地址中有中文的问题 resp = urllib.request.urlopen(url)
2019-06-17
现在是连接是http://baike.baidu.com/item/Python
所以links = soup.find_all('a', href=re.compile(r"/item/(.*)"))
另外summary新连接里有中文
fout.write("<td>%s</td>" % data['summary'].encode('utf-8'))
所以links = soup.find_all('a', href=re.compile(r"/item/(.*)"))
另外summary新连接里有中文
fout.write("<td>%s</td>" % data['summary'].encode('utf-8'))
2019-06-14