2011-02-14 57 views
1

我正在使用file_get_contents函數從巨大頁面(32 000行)中獲取和解析html。 它適用於小型/普通頁面,但是這個頁面只是停止。PHP f-n file_get_contents停止執行巨大的html頁面

它不會給出任何錯誤。它不會讀取我的PHP腳本中的下一行,但只是停止..我試圖增加超時或使用cURL,但它仍然無法正常工作。

它適用於我本地的XAMPP,但當它上傳到我的主機時它不起作用。 有誰知道什麼設置搞亂我的PHP託管?我認爲這是一些緩衝的問題..

+0

您是否有控制檯?然後嘗試使用wget http:// www ..來檢查頁面是否可讀。 – powtac 2011-02-14 10:01:58

回答

1

這是可能的,它是由memory_limit

Here引起的關於該指令的一些附加信息

要確定這一點,你應該在前面加上這樣的代碼原因以下內容添加到您的腳本中(如果您希望在瀏覽器中顯示錯誤,則省略日誌語句)

ini_set('display_errors', 1); 
ini_set('log_errors', 1); 
ini_set('error_log', dirname(__FILE__) . '/error_log.txt'); 
error_reporting(E_ALL);