您的位置:首页 > 编程语言 > Go语言

如何使用robots不让百度和google收录

2016-05-01 04:29 375 查看

如何使用robots不让百度和google收录

  有没有想过,如果我们某个站点不让百度和google收录,那怎么办?

  搜索引擎已经和我们达成一个约定,如果我们按约定那样做了,它们就不要收录。

  这个写约定的的文件命名为:robots.txt。

  robots.txt是一个最简单的.txt文件,用以告诉搜索引擎哪些网页可以收录,哪些不允许收录。

  关于robots.txt一般站长需要注意以下几点:

  如果你的站点对所有搜索引擎公开,则不用做这个文件或者robots.txt为空就行。

  必须命名为:robots.txt,都是小写,robot后面加"s"。

  robots.txt必须放置在一个站点的根目录下。如:通过http://www.suiyan.cn/robots.txt 可以成功访问到,则说明本站的放置正确。

  一般情况下,robots.txt里只写着两个函数:User-agent和 Disallow。

  观察这个页面并修改为自己的:http://www.suiyan.cn/robots.txt

  有几个禁止,就得有几个Disallow函数,并分行描述。

  至少要有一个Disallow函数,如果都允许收录,则写: Disallow: ,如果都不允许收录,则写:Disallow: / (注:只是差一个斜杆)。

  补充说明:

  User-agent: * 星号说明允许所有搜索引擎收录

  Disallow: /search.html 说明 http://www.suiyan.cn/search.html 这个页面禁止搜索引擎抓取。

  Disallow: /index.php? 说明类似这样的页面http://www.suiyan.cn/index.php?search=%E5%A5%BD&action=search&searchcategory=%25 禁止搜索引擎抓取。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: