问题:课程中讲的是这样启动scrapyd上的爬虫
curl http://localhost:6800/schedule.json -d project=default -d spider=somespider
但是我的scrapy爬虫是通过自己写的脚本文件启动的 ,如图:
我启动爬虫只需要运行main.py就可以了,
请问老师:我怎么能够用scrapyd执行我的main.py文件达到启动爬虫的目的?
带你彻底掌握Scrapy,用Django+Elasticsearch搭建搜索引擎
了解课程