Python之简单网络爬虫】BeautifulSoup——按节点的名字、属性和文字进行搜索(以及正则表达式的使用)
https://blog.csdn.net/weixin_43971764/article/details/86563814
欢迎各位看官光临茶馆~~~~
https://blog.csdn.net/weixin_43971764/article/details/86563814
欢迎各位看官光临茶馆~~~~
2019-01-20
网址不对,百度网址是https://www.baidu.com/,而不是http://www.baidu.com/,他们的长度和cookie都不一样
2019-01-19
爬1000条有些失败,但是基本上可以用了,源码我已经上传了https://github.com/leiphp/spider-baike
2019-01-05
在python3.3里面,用urllib.request代替urllib2,另外python3之后,不能再用,print html
注意:print 的东西要用()括起来。
这样的方式,因为print这个时候已经是一个方法了。必须使用下面的方法
可以将代码换成:
import urllib.request
resp=urllib.request.urlopen('http://www.baidu.com')
html=resp.read()
print(html)
注意:print 的东西要用()括起来。
这样的方式,因为print这个时候已经是一个方法了。必须使用下面的方法
可以将代码换成:
import urllib.request
resp=urllib.request.urlopen('http://www.baidu.com')
html=resp.read()
print(html)
2019-01-03
这个是针对py2版本的...所以朋友们要看,建议看python3的版本的...否则这个学完你会一脸懵逼的怀疑人生,我靠...
2018-12-30
老师讲的很清晰,思路明确。跟着老师敲了一遍,经过两天的摸索差不多才明白。
下面是我跟着老师写的代码,python3.7+bd4+urlib3环境下能运行:https://github.com/xinwang296/webspider2.git
下面是我跟着老师写的代码,python3.7+bd4+urlib3环境下能运行:https://github.com/xinwang296/webspider2.git