我正在處理下載網頁的Python 2.7
中的腳本。大多數情況下,一切都按計劃進行。鑑於這個腳本有數以千計的網頁可供下載,當事情不能解決時,不可避免地會出現幾次。腳本在URLError
或HTTPError
事件中放棄並繼續前進,但有時候一切都會掛起,並且需要手動敲擊Ctrl-Z
或Ctrl-C
才能停止此操作。有問題的代碼:如何在Python中獲得urlopen命令以放棄並繼續前進?
f = urlopen (url)
local_file = open (file_name, 'w') # Open local file
local_file.write (f.read())
local_file.close()
我試過signal.alarm
,但它並不總是工作。我嘗試了urlopen中的超時參數,但這不起作用。
是否有一種可靠的方法來確保腳本在幾秒鐘後自動放棄並繼續移動?我應該使用urlopen以外的東西嗎?
退房此鏈接http://www.daniweb.com/software-development/python/threads/182555/how-to-set-timeout-for-reading-from -urls合的urllib# – avasal