请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

使用scrapy-crawlera做爬虫代理,但是运行爬虫出错,打印信息显示407状态码,要怎么解决?

正在回答 回答被采纳积分+3

2回答

提问者 dengwenjieyear 2017-07-01 03:16:57

找到原因了,那个crawlera服务要钱的,我在自己的scrapinghub上未开通crawlera服务

1 回复 有任何疑惑可以回复我~
  • bobby #1
    crawlera 是收费的, 如果不介意收费的可以考虑, 相对自己去网上找免费的代理ip会速度快和稳定一些
    回复 有任何疑惑可以回复我~ 2017-07-03 09:11:27
志明0 2017-06-30 10:38:44

以4开头的错误一般都是服务器问题,你找到原因了吗?

0 回复 有任何疑惑可以回复我~
  • 提问者 dengwenjieyear #1
    还没找到呢,网上查了说是代理服务器身份验证不通过
    回复 有任何疑惑可以回复我~ 2017-06-30 12:30:23
问题已解决,确定采纳
还有疑问,暂不采纳
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号