`
zl198751
  • 浏览: 272888 次
  • 性别: Icon_minigender_1
  • 来自: 上海
社区版块
存档分类
最新评论

网站优化攻略:Robots.txt使用指南

 
阅读更多


【简 介】
搜索引擎访问一个网站时,它首先会检查该网站的根域下是否有一个叫做robots.txt的纯文本文件。Robots.txt文件用于限定搜索引擎对其网站的访问范围,即告诉搜索引擎网站中哪些文件是允许它进行检索(下载)的。

  搜索引擎访问一个网站时,它首先会检查该网站的根域下是否有一个叫做robots.txt的纯文本文件。Robots.txt文件用于限定搜索引擎对其网站的访问范围,即告诉搜索引擎网站中哪些文件是允许它进行检索(下载)的。这就是大家在上常看到的“拒绝Robots访问标准”(Robots Exclusion Standard)。下面我们简称RES。 Robots.txt文件的格式:Robots.txt文件的格式比较特殊,它由记录组成。这些记录通过空行分开。其中每条记录均由两个域组成:

  1) 一个User-Agent(用户代理)字符串行;

  2) 若干Disallow字符串行。

  记录格式为: ":"

  下面我们分别对这两个域做进一步说明。

  User-agent(用户代理):

  User-agent行(用户代理行) 用于指定搜索引擎robot的名字,以Google的检索程序Googlebot为例,有:User-agent: Googlebot

  一个robots.txt中至少要有一条User-agent记录。如果有多条User-agent记录,则说明有多个robot会受到RES标准的 限制。当然了,如果要指定所有的robot,只需用一个通配符"*"就搞定了,即:User-agent: * Disallow(拒绝访问声明):

  在Robots.txt文件中,每条记录的第二个域是Disallow:指令行。这些Disallow行声明了该网站中不希望被访问的文件和(或)目 录。例如"Disallow: email.htm"对文件的访问进行了声明,禁止Spiders下载网站上的email.htm文件。而"Disallow: /cgi-bin/"则对cgi-bin目录的访问进行了声明,拒绝Spiders进入该目录及其子目录。Disallow声明行还具有通配符功能。例如 上例中"Disallow: /cgi-bin/"声明了拒绝搜索引擎对cgi-bin目录及其子目录的访问,而"Disallow:/bob"则拒绝搜索引擎对/bob.html和 /bob/indes.html的访问(即无论是名为bob的文件还是名为bob的目录下的文件都不允许搜索引擎访问)。Disallow记录如果留空, 则说明该网站的所有部分都向搜索引擎开放。

  空格 & 注释

  在robots.txt文件中,凡以"#"开头的行,均被视为注解内容,这和UNIX中的惯例是一样的。但大家需要注意两个问题:

  1) RES标准允许将注解内容放在指示行的末尾,但这种格式并不是所有的Spiders都能够支持。譬如,并不是所有的Spiders都能够正确理 解"Disallow: bob #comment"这样一条指令。有的Spiders就会误解为Disallow的是"bob#comment"。最好的办法是使注解自成一行。

  2) RES标准允许在一个指令行的开头存在空格,象"Disallow: bob #comment",但我们也并不建议大家这么做。

  Robots.txt文件的创建:

  需要注意的是,应当在UNIX命令行终端模式下创建Robots.txt纯文本文件。好的文本编辑器一般都能够提供UNIX模式功能,或者你的FTP客户端软件
也“应该”能够替你转换过来。如果你试图用一个没有提供文本编辑模式的HTML编辑器来生成你的robots.txt纯文本文件,那你可就是瞎子打蚊子——白费力气了。

  对RES标准的扩展:

  尽管已经提出了一些扩展标准,如Allow行或Robot版本控制(例如应该忽略大小写和版本号),但尚未得到RES工作组的正式批准认可。

  附录I. Robots.txt用法举例:

  使用通配符"*",可设置对所有robot的访问权限。

  User-agent: *

  Disallow:

  表明:允许所有搜索引擎访问网站下的所有内容。

  User-agent: *

  Disallow: /

  表明:禁止所有搜索引擎对网站下所有网页的访问。

  User-agent: *

  Disallow: /cgi-bin/Disallow: /images/

  表明:禁止所有搜索引擎进入网站的cgi-bin和images目录及其下所有子目录。需要注意的是对每一个目录必须分开声明。

  User-agent: Roverdog

  Disallow: /

  表明:禁止Roverdog访问网站上的任何文件。

  User-agent: Googlebot

  Disallow: cheese.htm

  表明:禁止Google的Googlebot访问其网站下的cheese.htm文件。

  上面介绍了一些简单的设置,对于比较复杂的设置,可参看一些大型站点如CNN或Looksmart的robots.txt文件

  附录II. 相关robots.txt文章参考:

  1. Robots.txt常见问题解析

  2. Robots Meta Tag的使用

  3. Robots.txt检测程序

分享到:
评论

相关推荐

    robots.txt用法与写法

    robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。Robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。 当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果...

    robots.txt:robots.txt即服务。 抓取robots.txt文件,下载并解析它们以通过API检查规则

    :robot: robots.txt即服务 :robot: ... 如果您要构建分布式Web搜寻器,则要知道从网站管理robots.txt规则是一项艰巨的任务,并且以可扩展的方式进行维护可能会很复杂。 您需要关注您的业务需求。 robots.txt可

    robots.txt使用方法 反爬虫 SEO.zip

    robots.txt使用方法 反爬虫 SEO.zip

    robots.io:Robots.txt 解析库

    Robots.io 是一个 Java 库,旨在简化网站“robots.txt”文件的解析。 如何使用 类提供了使用 robots.io 的所有功能。 例子 连接 要使用 User-Agent 字符串“test”解析 Google 的 robots.txt: RobotsParser ...

    搜索蜘蛛:什么是robots.txt,要怎么写?

    搜索蜘蛛:什么是robots.txt,要怎么写?

    搜索引擎机器人文件robots.txt让你的网站得到更好的优化

    搜索引擎机器人文件,上传到你网站的根目录,并改文件名为robots.txt即可..让你的网站更好的优化

    一个经典的wordpress的robots.txt的写法

    一个经典的wordpress的robots.txt的写法 下载后直接复制就行了 略微调一下也行的 文件来自:www.52jiwai.com 分享时请注明来处!

    如何写robots.txt?

    在国内,网站管理者似乎对robots.txt并没有引起多大重视,应一些朋友之请求,今天想通过这篇文章来简单谈一下robots.txt的写作

    Robots.io:Robots.txt解析库-开源

    Robots.io是一个Java库,旨在简化网站“ robots.txt”文件的解析。 RobotsParser类提供了使用robots.io的所有功能。 传递给RobotsParser的域被规范化为始终以正斜杠结尾。 不允许的路径绝不会以正斜杠开头。 这样...

    Robots.txt-Parser-Class:robots.txt解析的Php类

    Robots.txt php解析器类 PHP类可根据Google,Yandex,W3C和The Web Robots Pages规范来解析robots.txt规则。 支持的规范的完整列表(以及尚不支持的规范)在中可用。 安装 该库可通过Composer软件包安装。 要通过...

    robots.js:用于robots.txt的用于node.js的解析器

    这是使用robots.js的示例: var robots = require ( 'robots' ) , parser = new robots . RobotsParser ( ) ; parser . setUrl ( 'http://nodeguide.ru/robots.txt' , function ( parser , success ) { if ( ...

    irobot:robots.txt 文件检查

    我是机器人 robots.txt文件检查器。配置一些常见配置选项的示例包括: require 'simple_redis_cache'Irobot . configure do | c | c . timeout = 1 # second c . cache_namespace c . cache = SimpleRedisCache . ...

    robots.txt解析器_Ruby_下载.zip

    robots.txt解析器_Ruby_下载.zip

    robots.txt文件在线生成工具.zip

    robots.txt可以告诉搜索引擎您的网站哪些页面可以被收录,哪些页面不可以被收录,如果您不想让搜索引擎收录您网站的某些内容,请用robots.txt文件指定搜索引擎在您网站上的抓取范围。 此工具本人找了很久,源码...

    如何写robots,robots.txt是一个纯文本文件

    robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。 当一个搜索机器人(有的叫搜索蜘蛛)访问一个站点时,它会首先检查该站点根目录...

    wordpress robots.txt优化你的博客

    WordPress博客的robots.txt文件写法得根据自身网站情况来定,当然我们可以借鉴一些知名网站的robots.txt写法,比如可以看wordpress教程网的robots.txt,可以通过访问:http://www.shouce.ren/robots.txt 获取 ...

    robotstxt:Go语言的robots.txt排除协议实现

    什么这是Go语言(golang)的robots.txt排除协议实现。建造要构建和运行测试,请在源目录中运行go test。贡献热烈欢迎。 如果需要,在README.rst的“谁”部分中添加您的名字。 运行脚本/测试&&脚本/清理&&回显ok 您...

    robots.txt详细介绍

    robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。 robots.txt基本介绍 robots.txt是一个纯文本文件,在这个文件中网站管理者可以...

    RobotsRider:浏览robots.txt文件并访问不允许的条目,记录结果并显示多汁的URL

    摘要:从robots.txt,生成器标签,文本提供者检测并推断CMS。 然后,可选地将CMS扫描器启动到目标并强行进行基本身份验证。 警告:在执行此工具之前,请检查“必需的第三方二进制文件”部分以下载它们。 介绍 该...

    protego:纯Python robots.txt解析器,支持现代约定

    Protego Protego是纯Python robots.txt解析器,支持现代约定。安装要安装Protego,只需使用pip: pip install protego用法>>> from protego import Protego>>> robotstxt = """... User - agent: *... Disallow: /.....

Global site tag (gtag.js) - Google Analytics