V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
推荐学习书目
Learn Python the Hard Way
Python Sites
PyPI - Python Package Index
http://diveintopython.org/toc/index.html
Pocoo
值得关注的项目
PyPy
Celery
Jinja2
Read the Docs
gevent
pyenv
virtualenv
Stackless Python
Beautiful Soup
结巴中文分词
Green Unicorn
Sentry
Shovel
Pyflakes
pytest
Python 编程
pep8 Checker
Styles
PEP 8
Google Python Style Guide
Code Style from The Hitchhiker's Guide
supervipcard
V2EX  ›  Python

scrapy 如何控制多个 spider 运行?

  •  
  •   supervipcard · Dec 16, 2017 · 3738 views
    This topic created in 3067 days ago, the information mentioned may be changed or developed.
    有 30 个网址,用一个 scrapy 来做,每个网址写成一个 spider。之后监控一个 redis 队列,从中不断取值,根据不同的值运行相应的 spider。请问这个如何实现?
    主要是从 redis 得到值之后如何运行相应的 spider ?或者有好点的方案吗?
    5 replies    2017-12-17 12:25:43 +08:00
    xhinliang
        1
    xhinliang  
       Dec 16, 2017
    用 Scrapyd 啊,调度方面可以看下 Scrapy-redis
    golmic
        2
    golmic  
       Dec 17, 2017 via Android
    加群 t.me/datapy 问,代码在电脑上,明天记得的话给你贴上来。不过需要提醒我一下。
    hcnhcn012
        3
    hcnhcn012  
       Dec 17, 2017 via iPhone
    马克,一模一样的调度需求,有好东西了告诉我下
    azh7138m
        4
    azh7138m  
       Dec 17, 2017
    Scrapy-redis 其实可以满足需求
    NLL
        5
    NLL  
       Dec 17, 2017 via iPhone
    马克,目前用的自定义命令,运行全部的 spider
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   5765 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 49ms · UTC 01:32 · PVG 09:32 · LAX 18:32 · JFK 21:32
    ♥ Do have faith in what you're doing.