采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
我按照老师开头的写法 scrapy crawl spider lagou -s JOBDIR=job_info/001 运行后报错,说我不能一次启动多个spider,我仔细看了看,发现我多打了一个spider。但是我想问问,如果要一次启动多个spider需要修改什么呢。
scrapy crawl spider lagou -s JOBDIR=job_info/001 这里没有spider这个参数啊 课程中没有讲解有这个参数啊 只有爬虫的名称
非常感谢!
登录后可查看更多问答,登录/注册
带你彻底掌握Scrapy,用Django+Elasticsearch搭建搜索引擎
4.9k 30
2.6k 18
1.2k 18
1.5k 15
3.0k 15
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号