非常 疯狂的蚂蚁crazyant这位老师的讲解,根据老师的讲解,初步弄懂了爬虫的基本结构和各部分的具体功能,以及分析目标的思路和方法,这个太重要,再次感谢老师,跟老师的视频我敲代码实现了这个人生中第一个Python爬虫,确实非常有意思,再次感谢老师,
根据自己的测试,有3个地方需要调整整之后才可以顺利执行
1、词条页面URL: /item/%E8%AE
原先是/view/41122.htm这种格式,但是百度百度百科已经升级了,原先的无法使用,对应的代码修改为:
links = soup.find_all('a',href=re.compile(r'/item/.*'))
2、获取title的方式有调整
res_data['title'] = title_node.find('h1').get_text()
这样就得到的数据是干净的标题,否则抓取到的数据后面会有“编辑”“收藏”这俩词
3、输出时不需要转utf-8编码
HtmlOutputer类的output_html()方法里面,输出html文件时增加<meta charset="UTF-8">
fout.write("<html><head><meta charset=\"UTF-8\"></head>\n")
点击查看更多内容
2人点赞
评论
共同学习,写下你的评论
评论加载中...
作者其他优质文章
正在加载中
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦