请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

scrapy 怎么给每个爬虫 添加进度条,显示爬取的进度?

scrapy 怎么给每个爬虫 添加进度条,显示爬取的进度?

正在回答 回答被采纳积分+3

1回答

小布_老师 2022-04-18 11:49:00

这个不好处理,爬虫通常是没有明确的目标量,都是获取到下一个请求,再去处理,目标量不够明确。

这里提两个终端进度条的相关库:tqdm、alive_progress。

你加进去试试

0 回复 有任何疑惑可以回复我~
  • 提问者 慕慕7513118 #1
    我爬的网站比较简单,没什么反爬 ,我是不是一开始翻页去得到总的网页数就可以得到总量? 进度条库我知道,如果要写是写在scrapy的那个组件里?中间件吗
    回复 有任何疑惑可以回复我~ 2022-04-18 12:02:28
  • 推荐在爬虫中间件。
    scrapy有大量的日志,你要先关闭这个日志。
    回复 有任何疑惑可以回复我~ 2022-04-18 12:07:15
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信