当前位置:首页 >  站长 >  搜索优化 >  正文

利用robots.txt找敏感文件教程

 2015-03-16 16:08  来源: 互联网   我来投稿 撤稿纠错

  【推荐】海外独服/站群服务器/高防

robots.txt是一个协议,而不是一个命令。robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。百度官方建议,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。

举例:

如果将网站视为酒店里的一个房间,robots.txt就是主人在房间门口悬挂的“请勿打扰”或“欢迎打扫”的提示牌。这个文件告诉来访的搜索引擎哪些房间可以进入和参观,哪些房间因为存放贵重物品,或可能涉及住户及访客的隐私而不对搜索引擎开放。但robots.txt不是命令,也不是防火墙,如同守门人无法阻止窃贼等恶意闯入者。

这里不给时间大家看了,看完教程再仔细阅读一下,很容易理解的,其实就是SEO中的环节,做SEO的人都知道,这个文件很常用,为了不让百度蜘蛛抓取你的一些不重要的页面,或是你想百度蜘蛛抓取你的什么页面,就靠这个文件来控制即可,所以就给了我们入侵者大大的方便,根据我的经验

有的时候各种扫目录,也找不到后台的时候,小心翼翼的访问一下这个文件,蛋疼的你就发现这个文件里面很多目录,其中可爱的后台地址就赫赫的展现在上面,你访问一下就获得后台地址了!

下面来实战一下,让大家看看效果

看目录,就知道是织梦程序 这个ICO也能看出。

User-agent: *

Disallow: /plus/ad_js.php

Disallow: /plus/advancedsearch.php

Disallow: /plus/car.php

Disallow: /plus/carbuyaction.php

Disallow: /plus/shops_buyaction.php

Disallow: /plus/erraddsave.php

Disallow: /plus/posttocar.php

Disallow: /plus/disdls.php

Disallow: /plus/feedback_js.php

Disallow: /plus/mytag_js.php

Disallow: /plus/rss.php

Disallow: /plus/search.php

Disallow: /plus/recommend.php

Disallow: /plus/stow.php

Disallow: /plus/count.php

Disallow: /include

Disallow: /templets

这个没有后台地址,至少我没看出可疑的文件,原来是默认后台地址 dede/

Disallow: /wp-admin/

Disallow: /wp-login.php

Disallow:不允许蜘蛛抓取的意思 一看就知道这是后台地址,试试,对吧

#

# robots.txt for Discuz! X3

#

User-agent: *

Disallow: /api/

Disallow: /data/

Disallow: /source/

Disallow: /install/

Disallow: /template/

Disallow: /config/

Disallow: /uc_client/

Disallow: /uc_server/

Disallow: /static/

Disallow: /admin.php

Disallow: /search.php

Disallow: /member.php

Disallow: /api.php

Disallow: /misc.php

Disallow: /connect.php

Disallow: /forum.php?mod=redirect*

Disallow: /forum.php?mod=post*

Disallow: /home.php?mod=spacecp*

Disallow: /userapp.php?mod=app&*

Disallow: /*?mod=misc*

Disallow: /*?mod=attachment*

通过这里,可以看出这个是Discuz! X3程序 x3版本的,是一个论坛

1.可以获取后台地址 效率不错

2.可以获得网站程序名称

入侵的时候,别忘了这个文件即可! 教程结束

申请创业报道,分享创业好点子。点击此处,共同探讨创业新机遇!

相关标签
robots.txt标签

相关文章

  • 看完秒懂robots.txt写法和注意事项

    robots.txt直接放在网站根目录下,是蜘蛛访问网站时,第一个抓取的文件。robots.txt是告诉蜘蛛网站的哪些文件允许抓取,哪些文件不允许抓取,甚至可以指定特定的蜘蛛能不能抓取特定的文件。没有抓取就没有收录,没有收录就没有排名。所以作为第一蜘蛛访问的文件,写好robots.txt是很重要的。

  • 了解robots文件,主动告诉搜索引擎该抓取什么内容

    导读:首先我们要了解什么是robots文件,比如,在安徽人才库的首页网址后面加入“/robots.txt”,即可打开该网站的robots文件,如图所示,文件里显示的内容是要告诉搜索引擎哪些网页希望被抓取,哪些不希望被抓取。因为网站中有一些无关紧要的网页,如“给我留言”或“联系方式”等网页,他们并不参

  • robots.txt禁止搜索引擎收录的方法

    什么是robots.txt文件?搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的网站中创建一个robots.txt,

  • 如何利用robots.txt对wordpress博客进行优化

    笔者在百度站长平台检测自己的博客时,出于优化的惯性,对博客的Rbots进行了检测,进而在百度搜索了wordpress博客robots的写法设置问题,看了很多wordpress高手对robots优化设置后,终于有所领悟,在此也分享给一些wordpress新手看看如何去善用robots.txt对word

    标签:
    robots.txt标签
  • robots.txt写法大全和robots.txt语法的作用

    1如果允许所有搜索引擎访问网站的所有部分的话我们可以建立一个空白的文本文档,命名为robots.txt放在网站的根目录下即可。robots.txt写法如下:User-agent:*Disallow:或者User-agent:*Allow:/2如果我们禁止所有搜索引擎访问网站的所有部分的话robots

    标签:
    robots.txt标签

热门排行

信息推荐