请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

running 'scrapy crawl' with more than one spider is no longer supported

我按照老师开头的写法 scrapy crawl spider lagou -s JOBDIR=job_info/001
运行后报错,说我不能一次启动多个spider,我仔细看了看,发现我多打了一个spider。但是我想问问,如果要一次启动多个spider需要修改什么呢。
图片描述

正在回答

插入代码

1回答

bobby 2020-04-06 13:39:10

scrapy crawl spider lagou -s JOBDIR=job_info/001 这里没有spider这个参数啊  课程中没有讲解有这个参数啊 只有爬虫的名称

0 回复 有任何疑惑可以回复我~
  • 提问者 ak918xp #1
    非常感谢!
    回复 有任何疑惑可以回复我~ 2020-04-06 14:06:21
问题已解决,确定采纳
还有疑问,暂不采纳
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号