采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
亲 这是被怀疑为爬虫 然后重定向你去登录了 就不会进入parse_detail了 你可以适当限制一下爬虫速度
整个怎么限制啊!sleep() 中间嗯哼?我还没看到后面 一步步跟着来 发现好多坑哈哈!
亲 课程的逻辑是先将每个网站的各个页面内容爬取下面 这个时候要少量的爬取, 不要做好一个网站就不节制大规模爬取, 然后在进阶章节再有防止被反爬虫禁止 所以你在知道如何爬取某个网站之后 不要着急去大规模爬取 等到课程学完以后再去大规模爬取会合理些
主要是 有点时候入库还是正确的,运行一会就报错了 我就怕是我自己的逻辑出现问题,还是是说一些网站已经不像是你当初录视频的时候那个 反爬策略了 嗯嗯 我是怕是我的逻辑出问题了 呵呵
登录后可查看更多问答,登录/注册
带你彻底掌握Scrapy,用Django+Elasticsearch搭建搜索引擎
4.5k 30
2.4k 18
902 18
1.2k 15
2.3k 15