我有dev.qrcodecity.com和www.qrcodecity.com。我希望Google刪除dev子域的所有記錄,但保留www。我使用git來存儲他們兩個的代碼,所以理想情況下我希望他們都有相同的robots.txt文件。是否有可能有一個robots.txt文件排除子域?使用robots.txt禁止或禁止子域名
11
A
回答
5
對不起,這很可能是不可能的。一般規則是每個子域都被分開處理,因此都需要robots.txt文件。
通常使用子文件夾通過url重寫來實現子域,該子文件夾可以執行要在子域之間共享單個robots.txt文件的映射。這裏有一個很好的討論如何做到這一點:http://www.webmasterworld.com/apache/4253501.htm。
但是,在你的情況下,你需要不同的行爲,每個子域將要求單獨的文件。
28
你可以使用Apache重寫邏輯供職於開發領域不同robots.txt
:
<IfModule mod_rewrite.c>
RewriteEngine on
RewriteCond %{HTTP_HOST} ^dev\.qrcodecity\.com$
RewriteRule ^robots\.txt$ robots-dev.txt
</IfModule>
,然後創建一個單獨的robots-dev.txt
:
User-agent: *
Disallow:/
3
請記住,如果你從阻止谷歌索引子域下的頁面,他們不會(通常)立即退出Google索引。它只是阻止Google重新編制這些網頁的索引。
如果dev子域尚未啓動,請確保它有自己的robots.txt禁止所有內容。但是,如果dev子域已經有索引的頁面,那麼您首先需要使用機器人noindex元標記(這要求Google最初抓取頁面以讀取此請求),然後將robots.txt文件設置爲一旦頁面已經從Google索引中刪除(設置Google網站管理員工具帳戶 - 這有助於解決這個問題)開發子域名。
-1
在發球上每個子域處理本身作爲一種獨立的域名,如果你發現一些免費網站製造商允許你主持你的網站對他們的供應以類似yourname.websitemake.com域名。結果,每個網站都在搜索引擎上單獨編制索引。
因此,您可以做的是做到這一點,您可以在子域的文件夾中添加一個新的「robots.txt」,並提及以下內容以禁止搜尋器將您的子域編入索引。
User-agent: *
Disallow:/
相關問題
- 1. 如何禁止使用robots.txt爲所有子域指定索引?
- 2. 如何抓住robots.txt禁止?
- 3. 的robots.txt禁止:蜘蛛
- 4. Robots.txt,禁止使用多語言URL
- 5. 使用「禁止:/ *?」在robots.txt文件
- 6. 我可以使用robots.txt禁止電子郵件地址嗎?
- 7. robots.txt禁止哪些文件夾 - SEO?
- 8. 允許和禁止在robots.txt文件中
- 9. 的robots.txt和通配符OD禁止
- 10. 禁止robots.txt中的特定網址
- 11. 如何禁止從robots.txt搜索頁面
- 12. 禁用或禁止「DatePicker」中的「零」值?
- 13. 禁止使用jQuery
- 14. 禁止一些WordPress的帖子在robots.txt中
- 15. 是否可以禁止robots.txt中的所有子目錄?
- 16. 禁止在robots.txt中使用動態網頁
- 17. 如何在服務器上禁止的目錄使用robots.txt
- 18. 如何禁止背部或使用Django
- 19. 短信網址,被禁止或不禁止的腓
- 20. jquery驗證url,禁止協議,子域名或查詢字符串
- 21. Swift - 禁止使用按鈕
- 22. 403禁止使用Urllib2 [Python]
- 23. 403禁止使用HttpWebRequest類
- 24. 禁止使用的schtasks
- 25. tmhOauth update_with_media使用hashtag禁止
- 26. 禁止使用angularjs指令
- 27. NGINX 403禁止使用php
- 28. 使用Script.aculo.us禁止雙擊
- 29. 得到禁止使用robots.txt:scrapy
- 30. robots.txt只允許root用戶,禁止其他所有內容?
每個子域需要一個robots.txt(請參閱https://youtu.be/G29Zt-UH_Ko) – JVerstry 2015-09-09 18:56:58