当前位置:首页 >  站长 >  搜索优化 >  正文

网站建设初始相关的SEO技术(一)

 2018-07-25 08:45  来源: 用户投稿   我来投稿 撤稿纠错

  【推荐】海外独服/站群服务器/高防

网站建设初始技术即网站在建立阶段,就必须全盘综合考虑的技术细节,因为后续在网站运营过程中再进行调整,会牵涉太多方面,甚至无法执行。

1.网站站点地图(Sitemap)的设置和技术细节

Sitemap是一种通知机制,就是通过创建一个文件的方式,把网站网页的URL提交给搜索引擎,在Sitemap中定义好页面的URL地址、权重、更新频率等。通过把Sitemap提交给搜索引擎,搜索引擎爬虫沿着Sitemap里面的链接地址进行爬行,这就是Sitemap的机制。

普通Sitemap文件的建立如下。通过XML的方式创建Sitemap,这是最常见也是最简单的一种方式。

网址

2015.01.03T04:20.08:00

always

1.O

网址

2015.01.02T20:20:36Z

daily

O.8

1.百度Sitemap

网页地址

2015-01-01

dafly

1.0

2.重要字段含义

・changefreq:指定提交的URL对应页面内容的更新频率,例如,daily、weeIdb,、monthly、yearly。这个参数用于设置搜索引擎页面变动的频率,即考量是否需要蜘蛛经常爬行并更新网页的内容。

・lastmod:当前页面内容最后的修改时间,这个参数可以给搜索引擎一个参考,就是时效性的参考,某些内容,特别是咨询类的,搜索引擎会将内容的更新时间作为排序的一个因子。

・priority:定义页面的权重,权重越高,相对于其他页面,当前页面的优先级越高。

・:用描述具体的链接地址,这里需要注意的是链接地址中的一些特殊字符必须转换为XML(HTML)定义的转义字符,简化版的

Sitemap也可以采用记事本方式,就是直接打开一个记事本,然后把URL填入,每个URL一行,然后直接提交搜索引擎,也能实现同样的目的。

3.超级门户的Sitemap模式

搜索引擎并不限定每个网站提交的Sitemap文件的个数,因此,如果网页

URL条目比较多,可以对新增的页面进行差额提交。

在创建多个Sitemap文件时,可以通过一个父Sitemap文件链接多个子

Sitemap文件,子Sitemap文件通过填充实际URL条目的模式完成,这样可以确保

每个Sitemap文件的URL条目不会特别多,建议一个Sitemap文件的URL条目不

要超过1000个。

下面是一个例子。

http://www.abc.com/sitemap1.xml.gz

http://www.abc.com/sitemap2.xml.gz

Sitemapl:

URLl

2015-01-01

daily

1.0

URL2

20 1 5..0 1.,0 1

daily

1.0

URL3

2015.01.01

dafly

1.0

URL4

20 l 5―0 1.0 1

daily

1.0

提交Sitemap的方式有多种,通常的做法是创建百度或者其他搜索引擎的站长账户,然后在站长后台把Sitemap的uRL提交上去,在站长后台可以看到每个Sitemap的处理进度和收录的数据。

2.Robots文件设置和技术细节

Robots.txt文件放在网站的根目录下,主要用于通知蜘蛛在该网站上的抓取范围,SEO可以在这个文件中声明该网站中不想被搜索引擎收录的部分,或者指定搜索引擎只收录特定的部分。

(1).经常使用到Robots.txt文件的情况

・网站升级,老版本网站的很多页面在新版本网站中去掉了,在这种情况下,可以通过Robots文件告诉蜘蛛不再抓取这些已经被去掉的页面。

・网站存在很多重复的内容,比如一个网站同时存在动态页面和已经经过静态化处理的页面,这些页面在内容上都是完全重复的内容,为了解决重复的问题,可以在Robots文件中禁止蜘蛛抓取动态页面。

・网站内部有些内容不便于公开发布,但是需要允许内部查阅。遇到这种情况,可以在Robots中告诉蜘蛛不要抓取。

(2).Robots文件的基本写法

User-agent:

Allow:    /cgi.bin/see

Allow:    /tmp/hi

Allow:    /~joe/look

Disallow:    /cgi.bin/

Disallow:    /t.mp/

Disallow:|00e|

Allow是允许蜘蛛爬行的页面,而Disallow后面则是不允许蜘蛛访问的路径和文件。

3.Robots的使用示例

(1)仅允许访问某目录下某个后缀的文件。

这里仅允许访问带“$”符号的网址,如下。

User―agent:*

Allow:.asp$

Disallow:/

(2)禁止索引网站中所有的动态页面。

这里是限制访问带“?”的网址,例如,index.asp?id=1。

User―agent:*

DisallOW:/*?*

(3)使用“*”,限制访问带某个后缀的域名。

这里是禁止访问admin目录下所有htm文件,如下。

User―agent:*

DisaUow:/admin/*.htm

本文由领创网络菏泽网站建设https://www.lingchuangweb.com/ 原创文字,版权所有,转载请注明出处,并保留本链接,谢谢!

申请创业报道,分享创业好点子。点击此处,共同探讨创业新机遇!

相关标签
seo优化
seo优化技术

相关文章

  • 个人做网站,一年可以赚多少钱?聊卖站

    今天,有一些圈外的朋友来咨询我做网站变现的事情,问我:贺老师,我要是做一个网站,一年可以赚多少钱?我用2张图片,来解答这个问题:做一个网站,一年可以赚多少钱?取决于如何做这个站点,能把它带到什么样的地步!有人半年可以赚24个W,但是也有人,一年只赚2000块:是什么问题,导致了如此悬殊的一个差距呢?

  • 微信问一问是什么,有什么优势、怎么结合搜一搜SEO做排名引流?

    前言:这是白杨SEO原创第457篇。为什么想到写这个?因为两个月前微信刚上线内测我就发了一个问一问视频,现在基本算全开放了,所以想让做SEO,流量,甚至想玩普通人都知道这个新渠道,希望对大家做品宣和搞流量有帮助。文章大纲:1、微信问一问是什么?入口在哪?2、做微信问一问有什么好处?3、微信问一问怎么

    标签:
    seo优化
  • 企业做SEO优化的重要性和意义?网站为何要做优化?

    很多大小型企业都有自己的网站,那么企业做网站是干嘛呢?有什么作用?我的理解是,您首先是希望为了能够在百度、360、搜狗等搜索引擎中得到展现,让更多的用户通过网上搜索看到公司企业正在做什么,企业形象背景以及口碑如何,最终目的是为了营销,为了推广我们的品牌,让更多的需求客户通过网络,通过百度、360等搜

  • 如何用人工智能创作结合SEO以知乎为例获取百度搜索流量?

    使用大致流程如下:1、确定自己业务的主要关键词2、确定想要的流量(百度搜索来的还是知乎站内)3、确定自己想用知乎文章为主还是问答为主4、挖掘用户需求的关键词5、用ChatGPT或平替产品生成文字内容6、生成的内容优化修改,用来写文章或者做回答7、布局SEO的用户需求关键词在标题和内容里8、置入引流信

    标签:
    seo优化
  • 最接地气的SEO指南 让新入行的你少走一大段弯路

    老贺是2005年开始做网站的,那时候我们国内的网站并不多,但是每天分享知识的人却不少,整天混迹在A5站长网、站长之家、落伍者上面,不断的充实自己,不过信息良莠不齐,也走了很多的弯路。之后在实践、实战中有了技能,在2008年的时候,老贺开始对外搞SEO,就这样一晃十多年过去了。今天这篇文章,老贺只写一

信息推荐