01
14
15
11
请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

scrapyd部署scrapy后无法关闭爬虫

curl http://localhost:6800/cancel.json -d project=TaoBaoSpider -d job=xxx,老师您好,我通过scrapyd部署并运行了scrapy项目,但是通过以上命令却无法取消当前爬虫,scrapyd服务器后台仍显示正在爬去

正在回答 回答被采纳积分+3

插入代码

1回答

bobby 2017-08-29 10:48:15

亲 你部署的是scrapy-redis的爬虫 还是直接就是scrapy的爬虫?

0 回复 有任何疑惑可以回复我~
  • 提问者 lixing_0001 #1
    是scrapy-redis的爬虫。
    回复 有任何疑惑可以回复我~ 2017-08-30 10:06:29
  • bobby 回复 提问者 lixing_0001 #2
    scrapy-redis不能停止,因为scrapy-redis是从redis队列中不停的读取数据, 没有处理中断信号, 如果需要停止scrapy-redis的话 需要自己去修改一下源码
    回复 有任何疑惑可以回复我~ 2017-08-31 09:41:42
问题已解决,确定采纳
还有疑问,暂不采纳
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号