老师,起初想设计一个爬取某一个人的微博记录的功能。设计的流程步骤是:用selenium模拟登陆微博之后,然后自动在搜索框输入“爬取的人名”,跳转到相应页面后,在对某一个控件点击,实现进入爬取的主人公的主页面。爬取完一页的信息后,在让selenium自动点击下一页,再进行解析。所以程序设计逻辑:spiders发起weibo.com的请求,经过Downloader中间件SinaPageMiddleware,如果是第一次也就是weibo.com的请求,就用selenium实现自动登录,搜索,跳转返回页面信息。如果是第二次请求,也就是下一页的请求,则用selenium点击下一页控件。问题是在第一次处理的时候由于进入爬取主人公页面默认在浏览器新打开一个页面,所以获取的总是之前搜索的页面,所以用了browser.get(url)直接请求爬取主人公页面,略过搜索跳转步骤。辛苦老师看了这么长,最后总结成两个问题:1这种设计是否合理,在实际爬取过程中,我们是不是应该只用selenium实现模拟登陆,其他还是应该用scrapy的requests来完成。2我在请求爬取主人公页面的时候,用的是browser.get(),这样cookies也没有带过去吗。