2015-10-20 45 views
0

我不希望谷歌抓取我所有分頁:禁止robots.txt中的所有分頁頁面

這裏是例子:

http://sample.com/blog-page/page/1

http://sample.com/blog-page/page/2

http://sample.com/blog-page/page/3

那麼我有一些其他的分頁頁面,如:

http://sample.com/product-category/product/page/1

http://sample.com/product-category/product/page/2

http://sample.com/product-category/product/page/3

下面是代碼爲我的robots.txt

User-agent: * 

Disallow: */page/* 

回答

0

我覺得應該是

User-agent: * 
Disallow: /blog-page/page 

的多個astricks是沒有必要的,你必須確保包括整個路徑作爲/page將是你的站點的根目錄

相關問題