请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

crawl lagou不成功

https://img1.sycdn.imooc.com/szimg//5922e6d60001953505990103.jpg

图一

https://img1.sycdn.imooc.com/szimg//5922e6d60001b5cc09080544.jpg

图二

https://img1.sycdn.imooc.com/szimg//5922eac600018f9c06820213.jpg

图三(视频中)

1:首次>scrapy genspider -t crawl lagou www.lagou.com的时候就没有出现视频中成功一部分的情况

2:按照视频配置好图一后,依然如之前一样没有创建成功,图三一直没有在本机出现

3:会不会是因为python3.5的缘故呢?

测试了很久,不太明白原因,辛苦老师!

正在回答

2回答

你如果要在命令行下运行的话

import sys
BASE_DIR = os.path.dirname(os.path.dirname(os.path.abspath(__file__)))
sys.path.insert(0, os.path.join(BASE_DIR, 'ArticleSpider'))

settings文件中加入这个, 不是python3.5的问题。 这个问题我会在后面讲到,

如果不在命令行下运行的话 pycham运行只要mark source root了, 运行应该是没有问题的

0 回复 有任何疑惑可以回复我~
  • 提问者 也行 #1
    恩恩,对的老师,之前不行,紧接着后面讲到的方法没问题的,可以解决问题,我本来以为是具有前后联系的也就没有继续尝试后面的。感谢!
    回复 有任何疑惑可以回复我~ 2017-05-23 15:45:24
  • 提问者 也行 #2
    感谢老师!
    回复 有任何疑惑可以回复我~ 2017-05-23 15:45:32
提问者 也行 2017-05-22 21:38:20

老师,会不会是因为python3,5的原因呢?奇怪

0 回复 有任何疑惑可以回复我~
  • 那个\a中的'a'是蓝色的,会不会是因为转义了呢,试一下\\a这种写法
    回复 有任何疑惑可以回复我~ 2019-11-16 18:16:55
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信