web-scraping

    0熱度

    1回答

    我需要刮這個HTML頁面... https://www.sanita.puglia.it/monitorpo/aslfg/monitorps-web/monitorps/monitorPSperASL.do?codNazionale=160115 ....使用PHP和XPath來獲取值在名爲「PO G.TATARELLA-CERIGNOLA」的表格下的綠色框中。 (注:你可以在頁面中看到不同的價值

    1熱度

    1回答

    我是Jsoup解析的新手,我想要獲得本頁面上所有公司的列表: 現在,一種方法是使用div標籤檢查頁面與我需要的相關。 然而,當我打電話的方法: Document doc = Jsoup.connect("https://angel.co/companies?company_types[]=Startup").get(); System.out.println(doc.html()); 首先,

    0熱度

    1回答

    林在學校的一個項目工作是我顯示的當前價格比特幣,ETH也許再和IM網絡刮https://cryptowat.ch/但我不能找到用於存儲實時價格標籤。當我解析div標籤返回的價格,但我不是能夠把它隔離開,所以我可以在Python <div class="rankings-col__header__segment"><h2>BTC</h2><weak>usd </weak>10857.00</div>

    0熱度

    1回答

    我對如何從這個網頁刮數據的問題: http://tvc4.forexpros.com/init.php?family_prefix=tvc4&carrier=64694b96ed4909e815f1d10605ae4e83&time=1513525898&domain_ID=70&lang_ID=70&timezone_ID=31&pair_ID=171&interval=86400&refres

    2熱度

    1回答

    我在python上使用了splinter模塊。我需要檢查一個元素是否可見或不在頁面上,看似唯一的告訴方法是style="display: none;",我無法找到一種方法來檢測。 如何檢查?

    0熱度

    2回答

    我試圖使用Selenium和Python 3從網站下載文件。這需要在覆蓋窗口上按下確認按鈕。疊加窗口不在iFrame中 - 只是在出現疊加時動態添加HTML - 但Selenium無法通過xPath找到該按鈕,返回NoSuchElementException。我是否錯過任何會導致Selenium無法看到該元素出現在頁面源中的內容?據我所知,Selenium應該能夠找到沒有問題的按鈕。 #Initi

    10熱度

    2回答

    我已經寫在VBA刮刀解析從洪流站點的某些影片信息退出瀏覽器。我用IE和queryselector完成任務。當我執行我的代碼時,它會解析一切,並彈出一個錯誤。看起來這個錯誤似乎是無處不在,而不是繼續。如果我取消錯誤框,那麼我可以看到結果。我已經上傳了兩張圖片,向您展示我遇到的錯誤。我如何成功執行代碼而不會出現任何錯誤?提前致謝。 下面是完整的代碼: Sub Torrent_Data() D

    1熱度

    2回答

    使用我很新的Scrapy,想嘗試以下操作: 從網頁中提取一些值,將其存儲在一個變量,在我的主要腳本中使用它。 所以我也跟着他們的教程,並改變了代碼爲我的目的: import scrapy from scrapy.crawler import CrawlerProcess class QuotesSpider(scrapy.Spider): name = "quotes"

    0熱度

    1回答

    我正在按照教程使用scrapy庫從網站上刮掉多個頁面。本教程使用yield語句通過css選擇器和xpath選擇器從頁面的html和css結構中獲取信息。我決定使用if語句來檢查搜索查詢是否找到結果,並使用else語句來輸出當搜索查詢沒有遇到結果時要執行的操作。當代碼執行提取公司名稱的else語句,以及位置和銷售字段時,我想要一個傳達'未找到'的自定義輸出字符串時出現問題。 當我運行該腳本,我得到以

    0熱度

    1回答

    尋求幫助,以循環訪問網站上的所有選項卡以捕獲所有相關信息。 在以下站點中,有幾個標籤分別標記爲5x5,5x10x5,10x10等。我不確定如何構造它,以便它會通過選項卡並在我的腳本中編寫循環。感謝您的幫助。 下面是python腳本; from urllib.request import urlopen as uReq from bs4 import BeautifulSoup as soup