Robots.text文件 引导搜索引擎收录网站
2009-05-15 11:16
141 查看
在网站根目录下还可以创建robots.txt文件,来引导搜索引擎收录网站。
Google蜘蛛 GoogleBot
BaiDu蜘蛛 Baiduspider
MSN蜘蛛 MSNBOT
robots.txt写作语法
允许所有的robot访问
User-agent: *
Disallow:
或者
User-agent: *
Allow:
或者也可以建一个空文件 "/robots.txt" file
禁止所有搜索引擎访问网站的任何部分
User-agent: *
Disallow: /
禁止所有搜索引擎访问网站的几个部分(下例中的01、02、03目录)
User-agent: *
Disallow: /01/
Disallow: /02/
Disallow: /03/
禁止某个搜索引擎的访问(下例中的BadBot)
User-agent: BadBot
Disallow: /
只允许某个搜索引擎的访问(下例中的Crawler)
User-agent: Crawler
Disallow:
User-agent: *
Disallow: /
Google蜘蛛 GoogleBot
BaiDu蜘蛛 Baiduspider
MSN蜘蛛 MSNBOT
robots.txt写作语法
允许所有的robot访问
User-agent: *
Disallow:
或者
User-agent: *
Allow:
或者也可以建一个空文件 "/robots.txt" file
禁止所有搜索引擎访问网站的任何部分
User-agent: *
Disallow: /
禁止所有搜索引擎访问网站的几个部分(下例中的01、02、03目录)
User-agent: *
Disallow: /01/
Disallow: /02/
Disallow: /03/
禁止某个搜索引擎的访问(下例中的BadBot)
User-agent: BadBot
Disallow: /
只允许某个搜索引擎的访问(下例中的Crawler)
User-agent: Crawler
Disallow:
User-agent: *
Disallow: /
相关文章推荐
- Robots.text文件 引导搜索引擎收录网站
- 网站优化与推广—robots文件处理
- 网站优化之robots文件详解
- 搜索引擎蜘蛛及网站robots.txt文件详解
- 搜索引擎蜘蛛及网站robots.txt文件详解
- robots.txt网站爬虫文件设置
- Robots.txt文件如何设置,网站优化之RObots.txt文件的配置
- robots.txt 不让搜索引擎收录网站的方法
- 如何使用 robots.txt 文件控制对网站的访问
- 从robots文件看网站用的是哪个程序
- asp.net网站,打开网站,提示下载网页解决方法(未知文件类型、text/vnd.wap.wml)
- 网站的robots 文件写法 附自动生成工具网址 推荐
- django+apache配置网站的robots.txt和sitemaps等理静态文件
- 网站的robots 文件写法 附自动生成工具网址
- 在过去 24 小时内,Googlebot 在尝试访问您的 robots.txt 时遇到了 33 个错误。为确保不会抓取该文件中列出的任何网页,我们推迟了抓取操作。您网站的 robots.txt 总体错
- 搜索引擎蜘蛛及网站robots.txt文件详解
- 屏蔽搜索引擎收录robots.txt文件下载
- robots.txt 不让搜索引擎收录网站的方法
- 网站SEO优化之Robots.txt文件写法。
- sdcms网站的robots文件的写法