1、6.16.1网站结构的类别6.26.2网站结构的优化6.36.3如何避免“蜘蛛陷阱”目录本章简介 网站结构的优化是网站优化的基本内容之一。一方面,合理的网站结构能够精准地传递出网站的基本内容以及内容之间的逻辑关系,有利于蜘蛛爬虫的爬行;另一方面,站在用户的角度去优化网站结构,能使用户在网站中更快速地获取信息,进而获取更多的精准用户。 在本章中,将为读者讲解如何进行网站结构的优化。站长首先要清楚网站结构的类型,其次针对不同类别的网站有针对性地进行优化。此外,在优化过程中还应该注意如何避免“蜘蛛陷阱”。学习目标l1了解网站结构的类型;l2熟悉不同类型的网站结构的优化方法和技巧;l3掌握避免“蜘蛛陷
2、阱”的方法。网站结构的类别6.1物理结构的表现形式1扁平式物理结构2树形物理结构6.1.1 物理结构 物理结构是指网站目录、包含文件所存储的真实位置所表现出来的结构,其结构示意图如图所示。6.1.2 内链结构 内链结构是网页之间的枢纽管道,其结构示意图如图6-4所示。当站长将网站页面上传到主机端之后,用户在用户端或者是前端所浏览到的页面就是传上去的页面所展示出来的内容。这样的网页内容可以根据不同级别下的页面进行链接贯通,因此内链结构的实质就是网页的枢纽。6.1.3 URL结构 URL(Uniform Resource Locator)是统一资源定位符的缩写,代表着一个网页在互联网上的唯一地址,
3、可供用户获取特定的网络资源。同理,URL结构则是指网站访问地址的结构。1静态URL2动态URL3伪静态URL网站结构的优化6.21一级目录2二级目录3三级目录6.2.1 物理结构的优化 网站物理结构的优化的基本要求是结构必须清晰化。其具体要求是:大类归大类,小类归小类,使网站的后期维护更加方便。当站长将文件上传到网站中,通常会出现目录的分级,如图所示。这时,站长需要对不同层级的目录进行优化。1面包屑链接的优化2重复链接的检测6.2.2 内链结构的优化 一个网站要想快速提升排名,合理布局网站的内链结构是必不可少的。网站内链结构的优化主要内容是设置网站交叉内链,内链结构优化的基本要求就是有层次,任
4、何页面的关系网都不应该超过3层。如图所示是内链结构示意图。1增加可利用URL结构2URL层次深度6.2.3 URL结构的优化 对于网站SEO而言,在设计网站之前要很清晰地了解对于网站URL结构的可控设计。例如增加可利用URL结构以及URL层次深度等,这些都是在优化过程中需要注意的问题。如何避免“蜘蛛陷阱”6.36.3.1 尽量不使用Session ID页面 对于网站的每一个访客,服务器会分配一个ID,那就是Session ID(会话标识)。Session是用来追踪访客会话的,使用服务器生成的Session ID区分访客,进而实现访客的身份标识。 很多网站为了分析访客的身份信息而采用Sessio
5、n ID来跟踪访客。当访客在访问网站的时候就会生成一个独一无二的Session ID,并且加入URL中。6.3.2 网站首页尽量不使用Flash动画 很多中小型企业的网站喜欢在网站首页设置Flash动画。因为Flash动画本身可以制作出很多效果,将音乐、声效以及富有新意的界面相融合,尤其是放在网站导航页,视觉效果佳。所以,不少企业通过在导航页中设置Flash动画彰显企业的产品、实力、文化和服务理念。如图所示是某电子商务网站在首页中设置了Flash动画。6.3.3 避免使用动态URL 在本章的第一节中,已经讲解了URL结构的分类,其中动态URL往往是加入了一定的符号或者是网址参数。尽管随着搜索引
6、擎技术的发展,搜索蜘蛛能够抓取部分动态URL,但是动态URL是数据库直接生成的,不利于搜索蜘蛛的爬行,甚至会造成死循环。 每个页面对应一个URL地址,动态URL静态化之后,原来的URL地址将不存在。 栏目和列表尽量采取“/123”的格式,内容页则采取“/123.html”的格式。 URL的层次结构能简则简,例如“/123/456.html”可以写成“/456.html”。 URL中包含关键词,既能加深用户的记忆,又能提升网站关键词的排名。 URL的书写尽量统一和规范。6.3.4 避免设置万年历 万年历是比较典型的蜘蛛陷阱。有的网站在首页中设置了万年历,尤其是宾馆、航空公司、在线票务网站,为了方
7、便用户进行时间的查询,往往会在网站中设置万年历。6.3.5 避免各种敏感的跳转 网站的跳转形式也会给搜索蜘蛛的爬行带来一定的影响,例如302跳转、JavaScript跳转、Mate Refresh跳转。下面将逐一讲解。1301跳转2302跳转3JavaScript跳转4Mate Refresh跳转6.3.6 规范robots.txt书写 在一个网站中存在很多文件,其中包括了后台程序文件、前台模板文件、图片等。这其中的部分文件是网站不希望搜索蜘蛛抓取到的,那该如何处理呢? 网站通过设置robots.txt文件来屏蔽搜索引擎索引的范围,减小搜索蜘蛛抓取页面所占用的网站宽带。此外,设置robots.txt可以指定搜索引擎禁止索引的网址,大大地减少了网站被收录的重复页面,对于网站SEO有较显著的作用。实战演练 小贾是某知名服饰网站管理员。经过长时间的网站运营,小贾发现:访客从网站首页进入网站之后,其访问路径比较杂乱,并且商品页的跳失率极高。 经过对访客路径的深入分析,小贾认为:访客的访问路径受制于网站的结构,访客在进入网站之后,根本分不清当前所处的位置,更不清楚网站的结构,一旦没有找到想要的商品之后就会离开网站,进而造成网站商品页的跳失率高。因此,当务之急是优化网站,尤其是导航结构的设置。 如图所示是该网站某款商品的导航路径,请结合本章中所讲述的内容,对该网站的导航进行优化。