我不希望谷歌抓取我所有分頁:禁止robots.txt中的所有分頁頁面
這裏是例子:
http://sample.com/blog-page/page/1
http://sample.com/blog-page/page/2
http://sample.com/blog-page/page/3
那麼我有一些其他的分頁頁面,如:
http://sample.com/product-category/product/page/1
http://sample.com/product-category/product/page/2
http://sample.com/product-category/product/page/3
下面是代碼爲我的robots.txt
User-agent: *
Disallow: */page/*