采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
老师,您好今天在使用代理ip的时候发现ip有些会无效,所以我想请教一个问题,如果代理ip无效,那么使用这个ip的url会重新发起请求,获取新的ip吗,如果不会,是不是scrapy就跳过这个url执行下一个了。如果这样的话有什么好的解决办法吗?
老师您好,今天我断点调试了下,我故意用无效的ip写到中间件中,scrapy请求失败后悔再次今日我的中间件,并根据我的逻辑随机了请求头以及更换了代理ip(这里我ip写死的所以会一直请求失败),好像是3次请求失败后,就会直接报错,我在想这个次数我们能不能控制,因为我想如果代理ip的质量不好的话,按照scrapy的方法只会重新发起请求3次,那么我觉得可能会在爬取数据的时候错过很多数据,所以我想如果遇到10060或者10061的时候能一直重新发起请求,知道更换到有效的代理IP为止,这点我攻克不了,请老师解惑
scrapy内置了一个重试组件 会重试,https://blog.csdn.net/qq_33854211/article/details/78535963 你可以看看这个
谢谢老师!
看了此文章没看明白在那里重写RetryMiddleware,没找到地方
登录后可查看更多问答,登录/注册
带你彻底掌握Scrapy,用Django+Elasticsearch搭建搜索引擎
4.7k 30
2.5k 18
1.1k 18
1.3k 15
2.7k 15