当前位置:首页 >  站长 >  搜索优化 >  正文

robots协议对网站、搜索引擎的重要性

 2015-09-25 15:24  来源: 用户投稿   我来投稿 撤稿纠错

  【推荐】海外独服/站群服务器/高防

很多站长最头疼的一个问题就是,搜索引擎蜘蛛为什么不光顾自己的网站,或者光顾频率比较低。这样对网站收录的影响是比较大的,直接影响到网站的排名。

先谈一下搜索引擎蜘蛛的工作原理吧,蜘蛛又称网络爬虫、网页蜘蛛、网络机器人,更生动的叫网页追逐者。一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。

 

网络爬虫

你知道万维网中有多少蜘蛛吗?下面介绍一下全球知名的蜘蛛,NO1:谷歌蜘蛛:google 谷歌蜘蛛最新名称为“compatible; Googlebot/2.1;” “Googlebot-Mobile”,看名字是抓取wap内容的:,全球最大的搜索引擎公司。NO2:百度蜘蛛:Baiduspider 常见百度旗下同类型蜘蛛还有下面这些Baiduspider-mobile(wap引擎)、Baiduspider-image(搜图引擎 )、Baiduspider-video(视频引擎)Baiduspider-news(新闻引擎),中文搜索引擎最强的公司。NO3:360蜘蛛:360Spider。NO4:SOSO蜘蛛,NO4:Sosospider 雅虎蜘蛛,NO:5“Yahoo! Slurp China”或者Yahoo!NO6: 有道蜘蛛:YoudaoBot,YodaoBot,NO7: 搜狗蜘蛛:Sogou News Spider,这些是全球最出名的蜘蛛,其实还有好多我就不一一列举了。

蜘蛛特点就是通过结网来捕获猎物,所以我们的网站就跟猎物一样等蜘蛛来捕获,如果网站内容新颖独特,更新内容频率高蜘蛛就会经常光顾你的网站。但是也不能让蜘蛛随便抓取,比如后台地址,所以就有了robots这个协议,这个很重要如果robots.txt协议写的好可以事半功倍。下面介绍一下robots.txt协议怎么写可以迎合蜘蛛的口味:

User-agent: *

开头字母必须是大写的,后面加英文形式下的冒号,然后后面是空格。

*表示通配符号。这里指通配所有的搜索引擎。

Disallow: / 表示禁止搜索引擎爬取所有页面,/表示目录。

Disallow: 表示不禁止

Disallow: /admin/禁止爬取admin后台目录。

Disallow: /admin 禁止抓取包含admin的路径 后面不带/表示只要路径中包含admin蜘蛛就不会抓取。

Allow: 表示允许

Allow: /admin/s3.html 允许抓取admin目录下的s3.html 这个文件。

Disallow: /.css$ 表示以.css结尾的文件都不允许抓取,带上$表示特定的文件。

3.robots.txt协议写法注意点

注意:

所有的语法必须空格/开头,所有正规的搜索引擎在抓取网站URL的时候会第一时间抓取robots.txt,如果没有robots.txt文件,蜘蛛会默认网站允许抓取所有信息。

网站地图放在robots.txt文件里。

所以把网站地图放在robots.txt文件夹里可以让蜘蛛更快速的抓取网站路径。 把做好的XML地图写在robots.txt文件里上传根目录就好。

总结:robots协议对伪静态的网站很重要,如果没有robots协议搜索引擎就会重复收录对网站权重排名有影响。robots协议最后必须加入网站地图,这样才会更好的引导蜘蛛抓取你的网站。

本文由盐城SEO吉中春原创,原文地址,转摘请保留版权,谢谢。

申请创业报道,分享创业好点子。点击此处,共同探讨创业新机遇!

相关标签
robots.txt技巧

相关文章

  • robots.txt文件怎么写才正确呢?

    曾庆平SEO在前面的文章中讲过robots.txt概念的时候,留下一个问题:为什么曾庆平SEO的robots.txt写得那么复杂?曾庆平SEO的robots.txt:http://www.xxx.com/robots.txt这样做的目的是,让搜索引擎看来网站更规范和权威。

  • 看完秒懂robots.txt写法和注意事项

    robots.txt直接放在网站根目录下,是蜘蛛访问网站时,第一个抓取的文件。robots.txt是告诉蜘蛛网站的哪些文件允许抓取,哪些文件不允许抓取,甚至可以指定特定的蜘蛛能不能抓取特定的文件。没有抓取就没有收录,没有收录就没有排名。所以作为第一蜘蛛访问的文件,写好robots.txt是很重要的。

  • 解除网站Robots封禁全过程

    obots协议或者说robots文件对搜索引擎优化中非常重要,但设置出错可能会导致收录下降或不能正常收录。今天,小小课堂SEO自学网带来的是《【robots文件协议】解除Robots封禁全过程》。希望本次的百度SEO优化培训对大家有所帮助。

  • 教你robots.txt设置方法技巧

    在SEO优化网站当中,做好robots.txt至关重要因为每个搜索引擎抓取网站信息第一步就是爬去robots.txt文件来引导搜索引擎爬取;合理的使用robots文件能够更好的集中网站的权重,避免一些不想被搜索引擎查看的文件抓取,是非常必要的一种SEO手段,但是好多做seo的朋友对于robots的文

    标签:
    robots.txt技巧

热门排行

信息推荐