当前位置:首页 >  科技 >  IT业界 >  正文

浦东新区法院:百度地图抓取信息未违反Robots协议

 2016-05-27 15:02  来源: 互联网   我来投稿 撤稿纠错

  【推荐】海外独服/站群服务器/高防

5月26日,大众点评起诉百度不正当竞争案的一审结果落槌。上海市浦东新区法院判定百度公司的搜索引擎抓取信息未违反Robots协议。

百度方代理律师称,百度地图的信息抓取行为具有合法性、正当性,严格遵守了国际通行的行业网站抓取惯例,即Robots协议。Robots协议也称为爬虫协议、机器人协议等,全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。这是国际通行的行业网站抓取惯例。

据了解,大众点评网的Robots协议中屏蔽了爱帮网的信息抓取行为,并未禁止百度搜索引擎抓取信息。

针对庭审阶段,大众点评曾称“百度地图”与“百度知道”未经授权,大量复制“大众点评网”的用户点评等信息。此外,大众点评认为,百度使用了大众点评网的图文标识,使得相关公众对服务来源产生误认,属于擅自使用知名服务特有名称的不正当竞争行为。

法院同时认定,百度地图在抓取信息中标注大众点评的图文标识,是为了指示信息来源,属于对他人标识的合理使用,并无不当。

百度方面表示,上海浦东新区法院认定,百度地图提供的搜索引擎服务遵守国际通行Robots协议,此判决结果体现了法院对互联网信息共享的支持。百度将更合理地控制来源于第三方网站信息的使用范围和方式,进一步提升用户体验。百度坚信,合作、共享的信息生态将给用户带来更多的福祉和便利,百度将本着开放创新的精神,促进用户和合作伙伴的多方共赢。

而对于浦东新区法院认定百度地图侵权部分,百度表示将提起上诉。

申请创业报道,分享创业好点子。点击此处,共同探讨创业新机遇!

相关标签
robots

相关文章

  • robots协议怎么写 作用是什么?

    robots协议也叫robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不应被搜索引擎的漫游器获取的,哪些是可以被漫游器获取的。

    标签:
    robots
  • robots具体应该禁止些什么文件

    今天大概总结一下:首先说明一点:每天百度派出的蜘蛛是有限的,robots写出来是为了节省蜘蛛资源让蜘蛛能更快的进行有效爬取和收录!

  • robots文件编写秘籍 新手必看

    当我们的网站上线之后,一定会有一些不想让百度抓取的页面、文件,针对这种问题,我们就要使用协议去屏蔽。那么这个协议是什么?究竟怎么写这个协议呢?

    标签:
    robots文件
    robots
  • robots.txt文件怎么写才正确呢?

    曾庆平SEO在前面的文章中讲过robots.txt概念的时候,留下一个问题:为什么曾庆平SEO的robots.txt写得那么复杂?曾庆平SEO的robots.txt:http://www.xxx.com/robots.txt这样做的目的是,让搜索引擎看来网站更规范和权威。

  • 百度站长平台检测robots.txt 提示301错误代码 怎么解决

    如果以上都没有错误,那么你就要检查你的CDN了,很可能是因为CDN缓存而造成的,或者是你配置了https,而站长平台却绑定的http,无法访问,这两点自己排查,如果以上都做到,那么是不会提示这类错误的,当然也不排查百度站长平台本身的问题,不过这种机率性很小。

热门排行

信息推荐