scrapy中添加快捷运行项目命令,不需要cmd窗口了

来源:网络 文章列表 2019-07-05 8
本人用的代码编辑器是sublime,每次运行爬虫都需要从代码编辑器里切换到cmd窗口,去运行scrapy命令,着实觉得太麻烦了。在scrapy中,为了避免每一次运行或调试都输入一串命令,可以在项目文件下新建一个run.py文件,每次运行爬虫只需要运行此脚本即可。且运行调试模式也需要设置此启动脚本。

问题描述:

本人用的代码编辑器是sublime,每次调整一下代码运行爬虫都需要从代码编辑器里切换到cmd窗口,去运行scrapy命令,着实觉得太麻烦了。

解决办法:

在scrapy中,为了避免每一次运行或调试都输入一串命令,可以在项目文件下新建一个run.py文件,每次运行爬虫只需要运行此脚本即可。且运行调试模式也需要设置此启动脚本。

from scrapy import cmdline
cmdline.execute('scrapy crawl duke'.split())

若嫌弃scrapy日志文件太杂乱,想无日志输出,只需在后面增加--nolog即可: 

from scrapy import cmdline
cmdline.execute('scrapy crawl duke --nolog'.split())

以上代码只需要将我的''duke''替换为你自己的爬虫名就可以了。

 

另外你还可以直接在每个Python文件里添加__main__方法

比如在文件末尾添加:

if __name__ == '__main__':
    from scrapy import cmdline
    cmdline.execute('scrapy crawl duke'.split())

然后只要执行ctrl+b就可以运行scrapy命令了。

用起来特别的爽啊...

如果有引入items文件且报items模块找不到的话,可以在项目目录下,建一个run.php来运行

比如看我上图的文件路径

run.py

from scrapy import cmdline
cmdline.execute('scrapy crawl chem'.split())

然后执行run.py文件就行

 

腾讯云限量秒杀

1核2G 5M 50元/年 2核4G 8M 74元/年 4核8G 5M 818元/年 CDN流量包 100GB 9元

版权声明

本站部分原创文章,部分文章整理自网络。如有转载的文章侵犯了您的版权,请联系站长删除处理。如果您有优质文章,欢迎发稿给我们!联系站长:
愿本站的内容能为您的学习、工作带来绵薄之力。

评论

  • 随机获取
点击刷新
精彩评论

友情链接