美文网首页
robot.txt分析与解读

robot.txt分析与解读

作者: belief_8f6c | 来源:发表于2017-05-02 08:18 被阅读0次
    一、robot.txt简介

    搜索引擎通过一种程序robot(又称spider),自动访问互联网上的网页并获取网页信息。您可以在您的网站中创建一个纯文本文件robots.txt,在这个文件中声明该网站中不想被robot访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容。

    User-agent:该项的值用于描述搜索引擎robot的名字,在“robots.txt”文件中,如果有多条 User-agent记录说明有多个robot会受到该协议的限制,对该文件来说,至少要有一条User- agent记录。如果该项的值设为,则该协议对任何机器人均有效,在“robots.txt”文件 中,“User-agent:”这样的记录只能有一条。

    Disallow:该项的值用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以 是部分的,任何以Disallow开头的URL均不会被robot访问到。任何一条Disallow记录为空,说明该网站的所有部分都允许被访问,在 “/robots.txt”文件中,至少要有一条Disallow记录。如果“/robots.txt”是一个空文件,则对于所有的搜索引擎robot,该网站都是开放的。

    二、网易新闻robots.txt
    User-agent: ToutiaoSpider  
    Disallow: /
    

    表示禁止头条搜索引擎的访问

    三、新浪博客robots.txt
    User-agent: *
    
    Allow: /admin/blogmove/
    
    Disallow: /admin/
    Disallow: /include/
    Disallow: /html/
    Disallow: /queue/
    Disallow: /config/   
    

    表示对所有搜索引擎访问都有限制,允许访问/admin/blogmove/,不允许访问/admin/、/include/、/html/、 /queue/、/config/ 。

    参考:
    1.搜狗百科
    2.新浪博客
    3.网易新闻

    相关文章

      网友评论

          本文标题:robot.txt分析与解读

          本文链接:https://www.haomeiwen.com/subject/crfctxtx.html