我對scrapy有點新,而且我被困在一個點上。我想在關閉時重新啓動蜘蛛。Scrapy隨後抓取多個蜘蛛
我想在這裏實現的是我從數據庫中獲取URL我以我每次發送「scrapy crawl xyz」請求的方式編寫我的視圖start_request將獲得一個URL [下一個URL]與前一個數據庫請求中傳遞的內容不同。
問題是如果數據庫中有四個URL我需要運行「scrapy crawl xyz」4次,但我想避免這種情況,並且我試圖在當前「spider_closed」獲取「scrapy crawl xyz」時觸發叫在蜘蛛的盡頭。請幫助
感謝Granitosaurus但我不想要運行多個蜘蛛,我試圖在這裏當它從第一個URL完成抓取數據時再次運行相同的蜘蛛 – vrnair
在這種情況下,您只需要在添加MySpider.start_urls屬性之前更新它。順便說一下,爲什麼不啓動蜘蛛時,將多個url傳遞給start_requests呢? – Granitosaurus
雖然將多個URL一起傳遞,但我正在從連接對等和「twisted.python.failure.failure類'openssl.ssl.error'」重置,但同時當我一次抓取這些鏈接時,它們將被抓取沒有任何錯誤 – vrnair