scraperwiki

    0熱度

    1回答

    有沒有辦法從ScraperWiki的div容器中獲取數據? 我有一個線的HTML是這樣的: <div id="karte_data_aktuelle_temperatur___CHA" class="karte_text_hidden"> <span style="font-size: 10px;">9.0</span> <br/> </div> ,我想刮...CHA和9

    0熱度

    1回答

    我正在使用ScraperWiki從london-gazette.co.uk網站提取鏈接。我如何編輯代碼,以便我可以在底部粘貼多個單獨的搜索URL,並將它們全部整理到相同的數據存儲中? 目前我只需粘貼新網址,點擊運行,新數據就會添加到舊數據的背面,但我想知道是否有辦法加快速度並獲得刮板一次處理多個網址?我會改變「通知碼」的URL的一部分:issues/2013-01-15;2013-01-15/al

    0熱度

    1回答

    這是我的第一個刮板https://scraperwiki.com/scrapers/my_first_scraper_1/ 我設法刮掉google.com而不是這個頁面。 http://subeta.net/pet_extra.php?act=read&petid=1014561 任何原因? 我已經按照這裏的文檔。 https://scraperwiki.com/docs/php/php_intr

    1熱度

    1回答

    我,而我用下面的代碼來湊的鳴叫嘰嘰喳喳收到以下錯誤: import scraperwiki import simplejson import urllib2 # Change QUERY to your search term of choice. # Examples: 'newsnight', 'from:bbcnewsnight', 'to:bbcnewsnight' QUERY

    -1熱度

    1回答

    我想使用scraperwiki和python來構建一個刮板,它可以從大量不同的站點上獲取信息。我想知道是否可以指向一個URL,然後從該網站中的每個鏈接中刪除數據。 例如:一個網站將包含有關不同項目的信息,每個項目都在其各自的鏈接中。我不需要這些鏈接的列表,但它們中包含的實際數據。 刮板會在每個鏈接上尋找相同的屬性。 有誰知道如何或如果我可以去做這件事? 謝謝!

    0熱度

    1回答

    我一直在寫壞的Perl一段時間,但我試圖學習編寫壞python。我已經閱讀了幾天我遇到的問題(並且因此瞭解了有關unicode的更多信息),但我仍然在下面的代碼中遇到了流氓em-dash的問題: import urllib2 def scrape(url): # simplified data = urllib2.urlopen(url) return data.read

    2熱度

    2回答

    我剛剛用Python中的Scraperwiki進行了刮擦。已經想出瞭如何從頁面刮取表格,每月運行刮刀並將結果保存在彼此之上。很酷。 現在我想要scrape this page與Android版本的信息和每月運行腳本。特別是,我想要表格的版本,代號,API和分佈。這並不容易。 該表使用包裝div進行調用。有什麼方法可以抓取這些信息嗎?我找不到任何解決方案。 B計劃是刮可視化。我最終需要的是代號和百分

    0熱度

    1回答

    這裏是我創建的使用Python上ScraperWiki刮刀: import lxml.html import re import scraperwiki pattern = re.compile(r'\s') html = scraperwiki.scrape("http://www.shanghairanking.com/ARWU2012.html") root = lxml.htm

    0熱度

    2回答

    下面是一個簡單的Python腳本存儲在ScraperWiki一些數據: import scraperwiki scraperwiki.sqlite.save(unique_keys=["a"], data={"a":1, "b":"Foo"}) scraperwiki.sqlite.save(unique_keys=["a"], data={"a":1, "c":"Bar"}) 結果是在數

    0熱度

    1回答

    下面是一個ScraperWiki刮板用Python寫的: import lxml.html import scraperwiki from unidecode import unidecode html = scraperwiki.scrape("http://www.timeshighereducation.co.uk/world-university-rankings/2012-13/