看起來我們將很快開始在這裏開始負載平衡我們的網絡服務器。如何在負載平衡的環境中動態編輯robots.txt?
我們有一個動態編輯robots.txt的功能請求,這對一個主機來說不是問題 - 但是一旦我們啓動了負載均衡器,聽起來好像我將不得不將scp文件轉移到其他主機。
這聽起來非常糟糕。你將如何處理這種情況?
我已經讓客戶編輯的元標記「機器人」,這(IMO)要切實做同樣的事情,因爲他從robots.txt的編輯想,但我真的不知道很多關於搜索引擎優化。
也許有處理這種完全不同的方式?
UPDATE
看起來我們將它S3現在存儲和memcache它正面...
我們如何做,現在
所以我們用Merb的。 .I將路線映射到我們的robots.txt,如下所示:
match('/robots.txt').to(:controller => 'welcome', :action => 'robots')
然後,相關代碼如下所示:
def robots
@cache = MMCACHE.clone
begin
robot = @cache.get("/robots/robots.txt")
rescue
robot = S3.get('robots', "robots.txt")
@cache.set("/robots/robots.txt", robot, 0)
end
@cache.quit
return robot
end
在serverfault上這個問題可能會更好,但您的複製代理無法處理它嗎?無論如何,你需要在服務器之間進行某種複製策略,是否有理由不能這樣做? – 2009-10-05 19:43:50
葉..我想如果這是存儲在該會爲現在的工作分貝......聽起來非常的fugly ... – eyberg 2009-10-05 19:57:26