craigslist

    1熱度

    1回答

    在此先感謝您提供的任何幫助。 我很喜歡通過iMacros學習一些自動化的可能性和樂趣,但是,我遇到了一個問題,我沒有在此論壇或IMacros論壇中看到特定於此問題的答案。我希望這裏有人可以理解這個具體問題。這不應該是困難的,但我真的很掙扎。 我有一系列iMacros'腳本',我每天手動運行5-6次,發佈craigslist廣告以購買房地產。我在'想要房屋'的'房屋通緝'部分做這個......我的腳

    4熱度

    1回答

    使用python3,selenium with firefox on windows10: 這個程序很簡單。它會直接跳轉到craigslists'發佈新的列表'頁面,上傳多張照片,然後提交。我所遇到的問題是,我無法控制一個對話框來使用硒導航到正確的文件。 browser = webdriver.Firefox() browser.get('https://post.craigslist.org/

    0熱度

    1回答

    我想創建一個Scrapy腳本來湊所有結果電腦演出在Craigslist的任意子域: 例如這裏:http://losangeles.craigslist.org/search/cpg/ 此查詢返回的許多文章的列表,我試圖刮這些結果(不僅是第一頁上的結果)的標題和href無法使用CrawlSpider和linkExtractor,但腳本不會返回任何結果。 我會在這裏貼上我的劇本,感謝 import s

    1熱度

    1回答

    這是正確的,這篇文章是關於「解析craigslist提取電子郵件地址,並編寫腳本自動發送我的簡歷到工作帖子」。 作爲一名計算機科學專業的學生,​​在大四的時候,我已經有一段時間了,而且只有狡猾的招聘者纔會啃食 - 給我高級開發人員角色的虛假希望,我不會得到。 那麼,爲什麼要花費幾個小時點擊craigslist招聘信息,當​​我可能只是有一個自動化的系統應用到我的區域的Craigslist上的每個工

    4熱度

    1回答

    當運行此VB.net時,遇到第3行時出現錯誤「根級數據無效,第1行,位置1」它將RDF名稱空間添加到Schemaset。 Dim doc As New XmlDocument() Dim xss As New XmlSchemaSet() xss.Add("rdf", "http://www.w3.org/1999/02/22-rdf-syntax-ns#") doc.Schemas = x

    -4熱度

    1回答

    我正在嘗試使用Delphi 2010和Indy 10的最新版本登錄Craigslist,並檢索我的帳戶頁面(以便收集我所有帖子的列表)。 但是,當我發佈登錄詳細信息時,the returned HTML是that of the login page,而我期望得到my account page listing my postings。 這裏是我的最新代碼: function TfrmMain.Log

    2熱度

    1回答

    我正在使用craigslist的批量發佈api。我寫了一個快速的腳本,看起來像這樣: var https = require('https'); var posting = '<?xml version="1.0"?><rdf:RDF xmlns="http://purl.org/rss/1.0/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-synt

    -2熱度

    1回答

    目前在一個網站上工作,它只需要汽車數據,所以我怎麼能從craigslist網站得到結果,我已經嘗試過iframe,但它不適合我。

    0熱度

    2回答

    我需要通過Craigslist API自動添加圖片到一些已有的帖子。 http://www.craigslist.org/about/bulk_posting_interface的文檔狀態: 注意:如果您提交的發佈項目與現有發佈項目具有相同的rdf:about,則現有發佈項目將不會更新。目前,更改發佈內容的唯一方法是通過cl:postingManageURL元素中指定的URL。 這很含糊。我理解這

    0熱度

    1回答

    我正在嘗試改編一個python 2.7 craigslist scraper,我在網上發現使用python 3.6。 但每次運行python腳本時它都不會返回任何內容。 是因爲我沒有針對正確的html標籤?如果是這樣,我將如何定位正確的html標籤? 我假設它是這裏的這部分代碼: for listing in soup.find_all('p',{'class':'result-row'}):