当前位置:首页 >  站长 >  搜索优化 >  正文

网站robots.txt文件配置错误,让我的站点丧失抓起良机!

 2008-03-15 09:47  来源: http://www.gz-kongtiao.cn   我来投稿 撤稿纠错

  一键部署OpenClaw

    国外的检查robots.txt文件合法性的在线验证工具地址是:。不过要注意,使用这个工具,请把robots.txt里的汉字注释清除(我的广州空调维修站点就是吃这个亏了!!!),它识别不了汉字;如果有汉字在里面的话,它就不认为这是一个robots.txt文件了。

   如果robots文件验证通过的话,一般会显示以下结果:
Analyzing file
No errors found in this robots.txt file
Hide empty and comments lines:

The following block of code DISALLOWS the crawling of the following files and directories: /inc/ to all spiders/robots.
Line 1 # robots.txt for www.gz-kongtiao.cn
Line 2 User-agent: *
Line 3 Disallow: /inc/

    另外,Google网站管理员工具也可以在线验证robots文件,google是支持中文注释的。
要分析网站的 robots.txt 文件,请按以下步骤操作:
(1)使用 Google 帐户登录 Google 网站管理员工具。
(2)在"控制台"中,点击所需网站的网址。
(3)点击工具,然后点击分析 robots.txt。

   最后我要说的是:如果有什么问题,请您给我留言,留言地址是。谢谢合作!

申请创业报道,分享创业好点子。点击此处,共同探讨创业新机遇!

相关文章

热门排行

信息推荐