当前位置:首页 >  站长 >  搜索优化 >  正文

痴情国王:如何对SEO进行诊断

 2010-07-02 20:33  来源:   我来投稿 撤稿纠错

  一键部署OpenClaw

1、确定网站的最后一个主要的设计

这包括在任何网址,导航,地图、或内容的重大变化造成的。所有这些可以对搜索引擎产生重大影响。

作为这项工作的一部分,检查搜索流量的历史网站分析数据。是否有过任何异常变化?这些都是今后寻找潜在问题的线索。此案例www.seo360.org曾经对网站地图做过一次重大改变,排名波动比较大,时间持续比较长。

2、URL标准化(301重定向)

一般情况下,以下几个URL都是指向同一个页面

qs01.com

qs01.com/index.php

qs01.com/index.html

为了将PR以及权重集中到一起,将以上3个URL用301重定向的方式转到www.qs01.com,这就叫做URL标准化。

3、使用站长工具来诊断站点

使用A5或chinaz站长工具,可以查询很多SEO数据,是否所有的导航链接抓取?是有形要素的重要内容?经常用站长工具批量检查友情链接,以免被不好的链接牵连,导致降权。

4、检查XML网站地图文件

要确保该文件是使用URL的规范版本,如果您链接到一个网址上使用该网页和网站的网页显示不同的URL在Sitemap文件,那么您刚刚创建的重复的内容。这个案例www.jchbz001.com改善此问题以后,排名上升了5位。

5、寻找有网页“模板内容”

这个典型的例子是一个城市网站,数千页的文字是对每一个城市的名称,除了已被取代的页面相同。你猜怎么着?你不如离开这个结构与空白页。该搜索引擎很快认识到,没有独特的内容在HTML文本在这些网页上。

6、智能使用标题标签和H1标签

谷歌网站管理员工具可以就重复标题标记的快速报告,失踪标题标签,简称标签,对你的元描述类似的数据。前往诊断,然后选择网页的建议。

重复的标题标记可能会导致“关键字拆散”,其中超过1个在您的网站页面上的竞争同样的搜索词排名。这是密切相关的内容重复的问题。

7、 Robots.txt文件审查

确保重要章节的内容不包括在内。去谷歌网站管理员工具,并使用内置的robots.txt检查(你可以在履带下访问这个站点配置部分)。这将显示,谷歌认为你是阻挡了网页的robots.txt文件。

这种快速检查,并不是要取代一个完整而彻底的现场诊断。然而,这是很好的做一个诊断开端,因为它会发现一个网站的主要问题很大一部分。这可以让你提供什么,他们应该在当您到一个更详细的诊断投入开发。

原创,A5首发。转载请注明出处,本人QQ 1263874786。

申请创业报道,分享创业好点子。点击此处,共同探讨创业新机遇!

相关文章

热门排行

信息推荐