2015-05-09 67 views
0

我有一個數以萬計的網站列表。我必須迭代它們,並且在每次迭代中 - 調用給定url的file_get_contents,使用regex從源搜索一些信息,並將其寫入另一個文件。使用file_get_content獲取網站的來源

好的,事情是 - 它非常非常慢。我將整個過程劃分爲每次刷新頁面時搜索約50個URL。但是:

  • 我不得不刷新頁面,直到我得到一個幾千
  • 即使只有50個網址,我得到30秒的時間超過

有沒有一種方法,以加快這起來了嗎?

+0

並行服務器進程 – Drakes

+0

這將有助於運行使用例如異步的請求。 https://github.com/amphp/artax。但即使超過30秒也不算什麼,聽起來對於你正在做的事情是一個奇怪的要求。 – PeeHaa

回答

1

set_time_limit(int $ seconds)可以幫助您增加最大執行時間。 http://php.net/manual/fr/function.set-time-limit.php

我假設你正在使用你的腳本瀏覽器。也許你應該考慮從命令行執行,因爲對於長執行時間腳本來說更好。

+0

從命令行?我怎麼能這樣做? – khernik

+2

準備好獲得新技能;-) http://php.net/manual/en/features.commandline.php – jde