为了账号安全,请及时绑定邮箱和手机立即绑定

最新回答 / 葱油拌面
已解决,
request.headers['Proxy-Authorization'] = 'Basic' + encode_pass_name.decode()

'Basic'  -----加空格------>  'Basic '

最新回答 / 慕仔3469222
重新写个main函数,里面写from scrapy import cmdlinecmdline.execute(‘scrapy crawl mydodin’.split()),然后运行main文件即可或者用命令行来运行你成功生成了spider项目说明安装没问题,只是你运行的文件错了。

最赞回答 / touch_the_dream
不是de是en,看清楚方法,比较容易弄错你写的是
base64.b64decode(proxy_name_pass)
正确的是
base64.b64encode(proxy_name_pass)

最新回答 / 小鱼儿丶
改下settings中的encoding就行了。自己犯傻了0.0

最新回答 / Yelena_Nic
什么啊 没有Windows里的交互吧要不是Mac 不是双系统 要不就是 Linux系统》。

最赞回答 / engine98
(当然我并不是老师)全平台都可以操作,而且linux和macOS还自带了python,反而比Windows方便,操作没区别
课程须知
1、具有一定的Python基础 2、具有一定的linux系统管理基础,编译安装软件,yum包管理工具等 3、具有一定的Mongdb数据库管理基础,增删改查
老师告诉你能学到什么?
1、scrapy框架简介、数据在框架内如何进行流动 2、scrapy框架安装、mongodb数据库安装 3、scrapy抓取项目如何创建 4、scrapy抓取项目如何进行数据解析 5、scrapy抓取项目如何绕过反爬机制抓取数据 6、scrapy抓取项目如何存储数据到不同的格式

微信扫码,参与3人拼团

意见反馈 帮助中心 APP下载
官方微信
友情提示:

您好,此课程属于迁移课程,您已购买该课程,无需重复购买,感谢您对慕课网的支持!

本次提问将花费2个积分

你的积分不足,无法发表

为什么扣积分?

本次提问将花费2个积分

继续发表请点击 "确定"

为什么扣积分?

举报

0/150
提交
取消