当前位置:首页 >  站长 >  搜索优化 >  正文

教你robots.txt设置方法技巧

 2015-03-16 16:20  来源: 互联网   我来投稿 撤稿纠错

  【推荐】海外独服/站群服务器/高防

在SEO优化网站当中,做好robots.txt至关重要因为每个搜索引擎抓取网站信息第一步就是爬去robots.txt文件来引导搜索引擎爬取;合理的使用robots文件能够更好的集中网站的权重,避免一些不想被搜索引擎查看的文件抓取,是非常必要的一种SEO手段,但是好多做seo的朋友对于robots的文件使用不是特别了解,仅仅知道Disallow是禁止,allow是允许,以及一些常用的搜索引擎的访问禁止写法,对于在复杂的一些不知道如何去写,其实本人开始也对于robots不知道如何着手去写,但是随着做seo时间推移,以及经验的丰富,笔者总结出了一套自己设置robots的方法,首先为大家介绍在robots设置当中需要注意的一些事项:

1、作为搜索引擎最先访问的目录,过长的robots文件也会影响蜘蛛的爬取速度,所以对于禁止搜索引擎的网页,可以适度的去使用noffollow标记,使其不对该网站传递权重。

2、对于Disallow和Allow的设置是有先后顺序之分的,搜索引擎会根据第一个匹配成功的Allow与Disallow来确定首先访问那个url地址。

3、在robots设置当中关于Disallow当中/和//的区别。在robots文件设置当中,Disallow:/abc是禁止访问abc.html和/abc/123.html等文件,而对于disallow:/abc/来说,是允许对于/abc.html进行访问,但是对于/abc/123.html是进行禁止的。

4、在robots设置当中“*”和“$”的设置,其中”$” 匹配行结束符。”*” 匹配0或多个任意字符。

好了掌握了这些知识,你可能会说我还是不知道如何去设置robots文件,那么该怎么办呢?

首先,确定你需要禁止的内容,然后注册谷歌管理员工具,通过搜索引擎查找你想禁止内容的写法,然后登陆百度管理员工具,选择网站配置>抓取工具的权限>测试robots.txt把你想要禁止内容的语法填入文本框当中,然后点击下面进行测试,会出现测试的结果,如果有错误,根据错误提示在进行相应的修改就可以了。

申请创业报道,分享创业好点子。点击此处,共同探讨创业新机遇!

相关标签
robots.txt技巧

相关文章

  • robots.txt文件怎么写才正确呢?

    曾庆平SEO在前面的文章中讲过robots.txt概念的时候,留下一个问题:为什么曾庆平SEO的robots.txt写得那么复杂?曾庆平SEO的robots.txt:http://www.xxx.com/robots.txt这样做的目的是,让搜索引擎看来网站更规范和权威。

  • 看完秒懂robots.txt写法和注意事项

    robots.txt直接放在网站根目录下,是蜘蛛访问网站时,第一个抓取的文件。robots.txt是告诉蜘蛛网站的哪些文件允许抓取,哪些文件不允许抓取,甚至可以指定特定的蜘蛛能不能抓取特定的文件。没有抓取就没有收录,没有收录就没有排名。所以作为第一蜘蛛访问的文件,写好robots.txt是很重要的。

  • 解除网站Robots封禁全过程

    obots协议或者说robots文件对搜索引擎优化中非常重要,但设置出错可能会导致收录下降或不能正常收录。今天,小小课堂SEO自学网带来的是《【robots文件协议】解除Robots封禁全过程》。希望本次的百度SEO优化培训对大家有所帮助。

  • robots协议对网站、搜索引擎的重要性

    很多站长最头疼的一个问题就是,搜索引擎蜘蛛为什么不光顾自己的网站,或者光顾频率比较低。这样对网站收录的影响是比较大的,直接影响到网站的排名。先谈一下搜索引擎蜘蛛的工作原理吧,蜘蛛又称网络爬虫、网页蜘蛛、网络机器人,更生动的叫网页追逐者。一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些

    标签:
    robots.txt技巧

热门排行

信息推荐