1
看起來像沒有合法的方式來暫停/繼續爬行Scrapyd,就像Scrapy本身一樣(scrapy爬行蜘蛛-s JOBDIR = jobdir/spider-1)。 我發現的唯一的解決辦法是在這裏:Scrapyd暫停/繼續工作
https://groups.google.com/forum/#!msg/scrapyusers/2VjEBEbOo7s/MSH4GJc2B0sJ
,但我一直搞不明白的想法。
那麼可以暫停/繼續Scrapyd的工作嗎?
感謝您的時間
對不起,我不明白在哪裏寫這個選項。如果我運行爬蟲:(curl http:// localhost:6800/schedule.json -d project = my-parsers -d spider = my_spider)我應該在哪裏粘貼你的代碼? – Pachvarsh
在這種情況下,你可以這樣撥打電話:'curl localhost:6800/schedule.json -d project = my-parsers -d spider = my_spider -d settings = JOBDIR = crawls/somespider-1' – AndMar
不幸的是,不管工作。當我恢復這樣的工作:'curl localhost:6800/schedule.json -d project = my-parsers -d spider = my_spider -d settings = JOBDIR = crawls/somespider-1 jobid = 3123asds5f34141asdfesw324'新的解析從頭開始,只有一個日誌是相同的 – Pachvarsh