非常好的视频,我用Python3.7,requests库,也实现了,虽然花了半天时间才调试出来,但也很值了。可以到https://github.com/gongshishen/a_very_very_little_spider看到
2018-10-19
刚开始学,python3做完了这个东西,碰到了几个问题,不知道有没有和我一样的小伙伴_init_和__init__ 的区别,当碰到异常 craw failed 可以debug看下流程,目前是可以跑的,不止只打印一个url,如果只打印了一个就是异常了,最后的解析,HTML打印汉字为16进制,data['title'].encode('utf-8').decode('utf-8')可以改为汉字 代码https://github.com/luckly1/baike.git
2018-10-03
python3错误 之NameError: name 'cookielib' is not defined
问题:
Python 3 改成 http.cookiejar了
改进办法
print('第三种方法,cookie处理')
import http.cookiejar
cj = http.cookiejar.CookieJar()
opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor(cj))
urllib.request.install_opener(opener)
问题:
Python 3 改成 http.cookiejar了
改进办法
print('第三种方法,cookie处理')
import http.cookiejar
cj = http.cookiejar.CookieJar()
opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor(cj))
urllib.request.install_opener(opener)
2018-09-26
我用pycharm 编写的:
import re
from bs4 import BeautifulSoup
html_doc = """
...
"""
soup = BeautifulSoup(html_doc,'html.parser',from_encoding='utf-8')
print '获取所有的链接'
links = soup.find_all('a')
for link in links:
print link.name,link['href'],link.get_text()
.....
遇到的坑,新建的文件名不能包含bs4不然系统报错
import re
from bs4 import BeautifulSoup
html_doc = """
...
"""
soup = BeautifulSoup(html_doc,'html.parser',from_encoding='utf-8')
print '获取所有的链接'
links = soup.find_all('a')
for link in links:
print link.name,link['href'],link.get_text()
.....
遇到的坑,新建的文件名不能包含bs4不然系统报错
2018-09-20