beautifulsoup

    1熱度

    1回答

    .aspx頁面中我是新的網絡遊戲刮。我想取消以下網站: http://www.foodemissions.com/foodemissions/Calculator.aspx 在互聯網上使用的資源,我總結了以下HTTP POST reqeust: import urllib from bs4 import BeautifulSoup headers = { 'Accept':'tex

    0熱度

    1回答

    在表格中,我正在刮,第二行非常長,我想簡單地限制字符因爲我只想要字符串開頭的信息。我想刮掉其他行。所以我的代碼如下: table = soup.find(id="table3") table_rows = table.findAll('tr') for tr in table_rows: td = tr.findAll('td') row = [i.t

    2熱度

    1回答

    我解析某個網頁與美麗的湯,嘗試檢索是H3標籤內的所有鏈接: page = = requests.get(https://www....) soup = BeautifulSoup(page.text, "html.parser") links = [] for item in soup.find_all('h3'): links.append(item.a['href'] 然而,找到的

    0熱度

    1回答

    所有 標籤我有這樣的代碼: xml = BeautifulSoup('xml.xml' "html5lib") print(xml.find_all('url')) 但我有恩空數組作爲返回的結果 我該怎麼辦? 這是我的xml文件,以防萬一

    0熱度

    1回答

    我想從網站自動讀取數據,首先我需要填寫一些字段,提交表單,然後讀取出現的數據。我是新手,但我寫了一個代碼,顯然不工作,結果是HTTP錯誤500.我在這裏錯過了什麼?或者我如何解決這個問題? 此外,我很高興使用BS4做到這一點,因爲我需要建立在此代碼上。 網站:http://www.mlindex.ml.com/GISPublic/bin/SnapShot.asp 輸入所需:指數北京時間= H0A0

    0熱度

    1回答

    我想從網站使用內置搜索功能,但我一直從主頁面獲取結果。不知道我做錯了什麼。 import requests from bs4 import BeautifulSoup body = {'input':'ferris'} # <-- also have tried'query' con = requests.post('http://www.collegedata.com/', data

    0熱度

    2回答

    我正在編寫一個腳本,每天都會在網頁上打開最新的文件。到目前爲止我的代碼如下: from BeautifulSoup import BeautifulSoup import urllib2 import re html_page = urllib2.urlopen("http://www.baytown.org/city-hall/departments/police/daily-medi

    0熱度

    2回答

    我想美麗的湯,我想將它導出到文本文件。 如何將result.txt文件名改爲soup.find(class_="entry-title").get_text()的文本? 在此先感謝。 from bs4 import BeautifulSoup as bs import urllib.request #getting the page. url = urllib.request.urlope

    0熱度

    1回答

    我使用scrapy檢查的某些服裝產品我感興趣的價格和可用性改變 程序本身按預期工作,但現在我。我不知道如何讓它不斷循環以作爲頁面監視器工作。我打算租了一個服務器有它運行的不確定狀態,如果有一個在可用性或價格變化,它將通過鬆弛通知我。我只用一個蜘蛛,所以我的代碼看起來是這樣的: class MonitorSpider(SitemapSpider): name = 'page_monitor

    0熱度

    1回答

    我的目標是從鏈接中獲取特定標籤的數量,我想要抓取的。我手動檢查了標籤的數量,我的代碼找不到所有的標籤。 我試過不同的解析器,如「html.parser」,「html5lib」和「lxml」,但每次都會發生錯誤。 我的代碼: from bs4 import BeautifulSoup from selenium import webdriver urls = ["http://www.baske