Python 3.6.1 (v3.6.1:69c0db5, Mar 21 2017, 17:54:52) [MSC v.1900 32 bit (Intel)] on win32
Type "copyright", "credits" or "license()" for more information.
>>>
========= RESTART: C:\Users\Administrator\Desktop\爬虫\spider_main.py =========
craw 1 ; http://baike.baidu.com/item/Python
craw failed
>>>
Type "copyright", "credits" or "license()" for more information.
>>>
========= RESTART: C:\Users\Administrator\Desktop\爬虫\spider_main.py =========
craw 1 ; http://baike.baidu.com/item/Python
craw failed
>>>
2017-04-23
python3
#需要 import re
print('正则匹配')
link_node = soup.find('a',href=re.compile(r'ill'))
print (link_node.name, link_node['href'], link_node.get_text())
#需要 import re
print('正则匹配')
link_node = soup.find('a',href=re.compile(r'ill'))
print (link_node.name, link_node['href'], link_node.get_text())
2017-04-23
https://github.com/liningzi/Spider_mai#spider_mai
一开始只输出两条记录,后来debug发现没有拼接成功
一开始只输出两条记录,后来debug发现没有拼接成功
2017-04-21
最赞回答 / SiCheng_Sheen
我之前也遇到过这种情况,纠结了很久,最后才发现一个非常重要的问题,百度的词条信息发生了变化,你可以仔细看看,现在不再是以 .htm结尾了,之前在html_parser模块中的正则表达式已经失效了,原来是href=re.compile(r"/view/\d+\.htm"),现在应该改为href=re.compile(r'/item/\w+')。这也再次证明了在采集数据前,一定要对目标进行仔细认真的分析!
2017-04-21
按照老师的课来打的代码
我用的是python3.6
https://github.com/hinkleung/baike_spider
我用的是python3.6
https://github.com/hinkleung/baike_spider
2017-04-20
本想看下评论有什么精华的,结果竟然有人觉得抱怨是理所当然的?学习这东西嘛,有问题,把你的问题写出来,大家讨论一下也许就解决了。说一些负面能量的话屁用没有。如果问题很多,那一定是基础不行,就回头打基础去,不就好了吗。如果抱怨能发财,喷子们早就富出中国,冲向宇宙了!其他社交网站随便喷,学习型网站,谁喷怼谁。有问题说问题!
2017-04-20