骤雨打新荷
» 游客:  注册 | 登录 | 会员 | 社区银行 | 股票中心 | 帮助

 

作者:
标题: robots.txt使用教程全解 上一主题 | 下一主题
txfzq
管理员




积分 33428
发帖 13147
注册 2005-5-26
状态 离线
#1  robots.txt使用教程全解

一、robots.txt有什么用?

       如果您不希望互联网爬虫(又叫蜘蛛、Crawler、Spider等)抓取您网站的每一个公开的链接,而只抓取您指定的某一部分链接,或根本不抓取任何链接,你可以使用robots.txt向我们汇报爬虫信息。  

       二、怎么使用robots.txt?

       建议您在站点的根目录下存放一个robots.txt文件。我们的爬虫在第一次抓取您站点时会首先确认根目录下是否有robots.txt文件。例如,您的网站地址是www.abc.com,我们会首先抓取http://www.abc.com/robots.txt再进行后续操作。如无法访问robots.txt文件,系统则默认为您站点的每个链接都可以被抓取。

       三、怎么写robots.txt文件?

    robots.txt是个很简单的文本文件,您只要标明“谁不能访问哪些链接”即可。
    在文件的第一行写:
    User-Agent: YodaoBot
    这就告诉了爬虫下面的描述是针对名叫YodaoBot的爬虫。您还可以写:
    User-Agent: *
    这就意味着向所有的爬虫开放。需要注意的是一个robots.txt文件里只能有一个"User-Agent: *"。

    接下来是不希望被访问的链接前缀。例如:
    Disallow: /private
    这就告诉爬虫不要抓取以"/private"开头的所有链接。包括/private.html,/private/some.html,/private/some/haha.html。如果您写成:
    Disallow: /
    则表明整个站点都不希望被访问。您也可以分多行来指定不希望被抓取的链接前缀,例如:
    Disallow: /tmp
    Disallow: /disallow
    那么所有以"/tmp"和"/disallow"开头的链接都不会被访问了。

    最后形成的robots.txt文件如下:
    User-Agent: YodaoBot
    Disallow: /tmp
    Disallow: /private

    请注意,如果您的robots.txt文件里有中文等非英语字符,请确定该文件是由UTF-8编码编写。

       四、怎样分别指定不同的网络爬虫?

    这个操作很简单,只要分别指定“谁能或不能访问怎样的链接”即可。例如:
    User-Agent:  YodaoBot
    Disallow:

    User-Agent: *
    Disallow: /private
    上面的robots.txt表明,名为YodaoBot的爬虫可以抓所有的内容,其它名称的爬虫不能抓以"/private"开头的链接。

        声明:本教程选编自有道帮助,你可以直接访问:

        http://www.yodao.com/help/webmaster/robot/




2008-6-2 17:48
查看资料  发短消息   编辑帖子  引用回复


可打印版本 | 推荐给朋友 | 订阅主题 | 收藏主题



论坛跳转:  



[ 联系我们 - 骤雨打新荷 ]

Powered by Discuz! 2.5 © 2001-2005 Comsenz Technology Ltd.