当前位置:首页 >  站长 >  搜索优化 >  正文

你不知道的robots文件那些事

 2019-07-25 10:26  来源: A5用户投稿   我来投稿 撤稿纠错

  域名预订/竞价,好“米”不错过

robots.txt文件,是每一个搜索引擎蜘蛛到你的网站之后要寻找和访问的第一个文件,robots.txt是你对搜索引擎制定的一个如 何索引你的网站的规则。通过该文件,搜索引擎就可以知道在你的网站中哪些文件是可以被索引的,哪些文件是被拒绝索引的。我们就可以很方便地控制搜索引擎索引网站内容了。 在很多网站中,站长们都忽略了使用robots.txt文件。

因为很多站长都认为,自己的网站没有什么秘密可言,而且自己也不太会使用robots.txt的语法,因此一旦写错了会带来更多的麻烦,还不如不用。 其实这样的做法是不对的。如果蜘蛛在某个网站*问了一个不存在的URL,那么就会记录下一条404信息(网页不存在),而robots.txt作为蜘蛛访问网站的第一个文件,一旦搜索引擎找不到这个文件,也会在它的索引服务器上记录下一条404信息。如果这样的404信息过多,那么搜索引擎蜘蛛就会认为该网站价值较低,从而降低对该网站的“印象分”,这就是我们经常会听到的“降低权重”。

“权重”是一个影响网站在搜索引擎排名中非常重要的因素,如果网站的权重高,那么搜索引擎蜘蛛也会频繁地访问该网站,而且网站排名也好。如果权重低,那么搜索引擎蜘蛛对于网站的访问次数也相应的要少,同时网站排名较差。而网站的权重是由很多条件所积累的,404信息就是很重要的一条,因此不得不重视。 虽然在百度的帮助文件中,有这样的一句话“请注意,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上的所有内容,请 勿建立robots.txt文件”。

实际上百度只是担心由于网站管理员不懂得robots.txt语法,导致搜索引擎蜘蛛无法正常抓取网站,才这样写的。建立robots.txt文件还是必需的,哪怕这个robots.txt文件是一个空白的文本文档都可以。因为我们的网站毕竟不是仅仅会被百度收录,同时也会被其他搜索引擎收录,上传一个空白的robots.txt文件,至少不会导致一条404信息的产生。

本文来源:裕顺网络www.ahyushun.com如有转载请注明出处

友情提示:A5官方SEO服务,为您提供权威网站优化解决方案,快速解决网站流量异常,排名异常,网站排名无法突破瓶颈等服务:http://www.admin5.cn/seo/zhenduan/

申请创业报道,分享创业好点子。点击此处,共同探讨创业新机遇!

相关标签
robots标签
robots

相关文章

  • robots协议怎么写 作用是什么?

    robots协议也叫robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不应被搜索引擎的漫游器获取的,哪些是可以被漫游器获取的。

    标签:
    robots
  • robots具体应该禁止些什么文件

    今天大概总结一下:首先说明一点:每天百度派出的蜘蛛是有限的,robots写出来是为了节省蜘蛛资源让蜘蛛能更快的进行有效爬取和收录!

  • robots文件编写秘籍 新手必看

    当我们的网站上线之后,一定会有一些不想让百度抓取的页面、文件,针对这种问题,我们就要使用协议去屏蔽。那么这个协议是什么?究竟怎么写这个协议呢?

    标签:
    robots文件
    robots
  • robots.txt文件怎么写才正确呢?

    曾庆平SEO在前面的文章中讲过robots.txt概念的时候,留下一个问题:为什么曾庆平SEO的robots.txt写得那么复杂?曾庆平SEO的robots.txt:http://www.xxx.com/robots.txt这样做的目的是,让搜索引擎看来网站更规范和权威。

  • 百度站长平台检测robots.txt 提示301错误代码 怎么解决

    如果以上都没有错误,那么你就要检查你的CDN了,很可能是因为CDN缓存而造成的,或者是你配置了https,而站长平台却绑定的http,无法访问,这两点自己排查,如果以上都做到,那么是不会提示这类错误的,当然也不排查百度站长平台本身的问题,不过这种机率性很小。

信息推荐