笔者也曾由于一时的急功近利利用采集工具进行采集信息,那时候,看到网站的信息一下“丰富”起来了,觉得马上就可以进行推广宣传了。 可后来给网站带来了非常大的负面影响,在运营上带来了很多困扰,为了解决这个问题而浪费了很多时间。
今天仍发现有不少站长在做这样的事情,由于一般的系统都已经附带了采集工具,所以采集现象很普遍。
在此,我们从SEO角度来分析用采集工具有哪些弊端:
1. 采回来的东西你不能一一去查阅,里面什么都有,也许你设置过滤了很多垃圾代码,但是你过滤不了信息自身的质量问题。貌似庞大,其实都是糟粕,大大降低了网站的质量。
2. 一大部分搜索引擎不收录了。采回来的文章有些是纯粹的广告信息,甚至错字一大堆,而且不知所云的也有。文章高度重复,有一部分是内容相同,标题不同,但是你无法去检查出来,采集工具只能识别标题是否重复;而且采集功能里面的URL命名一般都难以设置规范化;诸多因素就大大影响了搜索引擎的收录。这一切只会占用了空间。
3. 就算收录了,可排名不好排上去。一般情况下,采集的文章排名很难会排在较前的位置,因为这些信息也许n年前就存在,能排在前面的是那篇被众多网站转载的原创文章,或者网站权重较高的转发文章,作为一个新站,采集的文章基本没有存在半点优势。所以,即使收录了,用户也搜索不到,文章也失去了存在的意义。
那么,站长如何面对采集现象呢
越是多人在采用采集,你越是要注重文章的原创性,这样的网站就越有相对优势。你可以转载一些好文过来,但你不要用采集。转载的文章你可以进行适当的整理和编排。而采集,你无法分辨优劣,如果访客看到你的网站存在大量有问题的文章或者严重重复的文章,会给人一种什么样的印象呢?
所以,让他们去采吧,我们走我们的路!养站就是养孩子,要用心栽培,并非一朝一夕就能壮大起来。
出处:SEO俱乐部 ,源文:《站长们如何面对采集》
申请创业报道,分享创业好点子。点击此处,共同探讨创业新机遇!
