为了账号安全,请及时绑定邮箱和手机立即绑定

python爬虫保存为txt的编码问题求解决?

python爬虫保存为txt的编码问题求解决?

慕尼黑8549860 2018-07-19 04:05:25
代码如下:# -*- coding: utf-8 -*-#http://www.qiushibaike.com/8hr/page/1?s=4603425import urllib2from bs4 import BeautifulSouppage=1xiubai=open(r'xiubai.txt','w+')for page in range(1,11):    url="http://www.qiushibaike.com/8hr/page/"+str(page)+"?s=4603425"    soup = BeautifulSoup(urllib2.urlopen(url).read())    for result in soup.findAll("div", "content", title=True):        xiubai.write(result.text)报错:Traceback (most recent call last):   File "D:\python\python2.7.5\pythontest\爬虫\kanxiushibaike.py", line 13, in <module>     xiubai.write(result.text) UnicodeEncodeError: 'ascii' codec can't encode characters in position 2-10: ordinal not in range(128)不用result.text 直接result虽然包含了html的部分代码但是又可以转为str。之后就可以随便用了。但是直接str(result.text)就会报同样错误
查看完整描述

2 回答

?
慕工程0101907

TA贡献1887条经验 获得超5个赞

查看完整回答
反对 回复 2018-07-19
?
繁华开满天机

TA贡献1816条经验 获得超4个赞

你查一下Python文档里的decode和encode

查看完整回答
反对 回复 2018-07-19
?
呼啦一阵风

TA贡献1802条经验 获得超6个赞

xiubai=open(r'xiubai.txt','wb+') 似乎这样就可以吧?不要说我记混了啊,各种语言稍有不同。

查看完整回答
反对 回复 2018-07-19
  • 2 回答
  • 0 关注
  • 375 浏览

添加回答

举报

0/150
提交
取消
意见反馈 帮助中心 APP下载
官方微信