什么是robots.txt? robots.txt怎么写? robots.txt写法
作为一个合格SEO优化人员来说一定得明白什么是robots.txt?以及robots.txt怎么写? robots.txt的写法。
robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。Robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。
注意:robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。通过你网址可以打开比如:http://www.167h.com/robots.txt 你可以打开看看robots.txt的面目。
语法:最简单的 robots.txt 文件使用两条规则:
• User-Agent: 适用下列规则的漫游器
• Disallow: 要拦截的网页
那robots.txt怎么写呢,下面列举一些常用的robots.txt写法:
1、禁止所有搜索引擎访问网站的任何部分的写法
User-agent: *
Disallow: /
2、禁止robot访问你网站特定内容写法,可以是目录也可以是特定页面
User-agent: *
Disallow: /2011/ (意为禁止访问网站2011目录下内容)
Disallow: /search.asp (意为禁止访问网站搜索页面)
3、禁止某个搜索引擎的访问
User-agent: Baiduspider (禁止百度访问)
Disallow: /
User-agent: Googlebot (禁止谷歌访问)
Disallow: /
谷歌管理后台生成写法-禁止谷歌访问,但充许其他搜索访问
User-agent: *
Allow: /
User-agent: Googlebot
Disallow: /
4、允许所有的robot访问写法:
User-agent: *
Disallow:
或者
User-agent: *
Allow: /
或者也可以建一个空文件 "/robots.txt"
5、只允许某个搜索引擎的访问写法:
User-agent: Baiduspider
Disallow:
User-agent: *
Disallow: /
意思为仅允许Baiduspider访问你的网站
User-agent: *
Disallow: /
User-agent: Googlebot
Allow: /
谷歌网站管理后台生成写法,仅允许Googlebot访问你的网站
以上是robots.txt的一些常用写法。
本文链接:http://www.167h.com/seo/201101/23.html
发布:温州网站优化 ┊ 已有: 人围观 | 发表时间:2011-1-6
好文章要分享: