我已經創建了一個使用WordPress的網站,第一天它充滿了虛擬內容,直到我上傳了我的內容。谷歌索引如網頁:使用robots.txt來阻止/?param = X
www.url.com/?cat=1
現在這些頁面不存在,並提出刪除請求,谷歌問我擋住他們的robots.txt
我應該使用:
User-Agent: *
Disallow: /?cat=
或
User-Agent: *
Disallow: /?cat=*
我的robots.txt文件看起來有些這樣的事情:
User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /author
Disallow: /?cat=
Sitemap: http://url.com/sitemap.xml.gz
這看起來不錯,或者它可以導致搜索引擎的任何問題?我應該使用Allow:/以及所有的Disallow:?
除非您想要允許某些類別,否則無需在此處使用「允許」。例如,您不允許以`/?cat =`開頭的所有內容。但是你可能想要允許一個特定的類別,如`Allow:/?cat = something`。 – 2011-01-21 18:41:28