SEO运营:面对如下问题,应该放弃?

自媒体 投稿&转载 1171浏览

网站的优化大致可以分为两部分,一是网站结构优化,二是页面上针对关键词的相关性优化。网站结构是SEO的基础。SEO人员对页面优化讨论的比较多,如页面上关键词怎么布局,标题标签怎么撰写等,对网站结构的讨论则比较少,其实网站结构的优化比页面优化更重要。从SEO角度看,优化网站结构要达到以下几个目的。

SEO运营:面对如下问题,应该放弃?

一、索引

1、用户体验

用户访问一个网站必须能够不假思索的点击链接,找到自己想要的信息。这有赖于良好的导航系统,适时出现的内部链接,准确的锚文字。从根本上说,用户体验好的网站也是搜索引擎喜欢的网站。

2、收录

这是大家比较关心的一项。网站页面的收录在很大程度上依靠良好的网站结构。理论上,清晰的网站结构很容易说清楚,只要策划好分类或频道,然后在分类下加入产品页面,整个网站自然形成树形结构。在实际操作中,大中型网站往往会形成一个异常复杂的链接结构,怎么样使搜索引擎蜘蛛能顺利爬行到所有内部页面是一个很大的挑战。

3、锚文字

锚文字是排名算法很重要的一部分。网站内部链接锚文字是站长自己能控制的,所以是最主要的增强关键词相关性的方法之一。在这方面维基百科是SEO人员应该学习的典范,其内部链接及锚文字使用达到了非常高的水平。

二、友好的网站设计

如果我们从搜索引擎蜘蛛的角度去看待一个网站,在抓取、索引和排名时会遇到哪些问题呢?解决了这些问题的网站设计就是搜索引擎友好的。

1、搜索引擎蜘蛛能否找到网页

要让搜索引擎发现网站首页,就必须要有外部链接到首页,找到首页后,蜘蛛会沿着内部链接找到更深的内容页,所以要求网站有良好的结构,符合逻辑,并且所有页面可以通过可爬行的普通HTML链接达到。注意:千万不要用Java链接、FLASH中的链接等等,除非你的网站很出名。

2、找到网页后能不能抓取页面内容

被发现的URL必须是可以被抓取的。数据库动态生成、带有参数的URL、SESSIONID、整个网站是FLASH、框架结构(Frame)、可疑的转向、大量复制内容等都可能使搜索引擎敬而远之。某些文件站长可能不希望网站被收录,除了不链接这些文件外,更保险的方法是使用robots文件或meta robots标签禁止收录。

3、抓取页面后怎么提炼有用的信息

关键词在页面重要位置的合理分布、重要标签的撰写、HTML代码精简、起码的兼容性等可以帮助搜索引擎立即页面的内容,提取有用的信息。只有搜索引擎能顺利找到所有页面,抓取这些页面并提取出其中真正有相关性的内容,网站才可以被视为是搜索引擎友好的。

三、避免蜘蛛陷阱

有一些网站设计技术对搜索一青年来说很不友好,不利于蜘蛛爬行和抓取,这些技术被称为蜘蛛陷阱,常见的应该全力避免蜘蛛陷阱包括如下这些。

1、FLASH

在网页的某一小部分使用FLASH增强视觉效果是很正常的,比如用FLASH做广告、图标等,只要这些FLASH占页面很小的一部分,对搜索引擎抓取和收录是没有影响。但是有的网站整个首页就是一个大的FLASH文件,这就构成了蜘蛛陷阱。搜索引擎无法读取FLASH,也就无法获取FLASH里面的链接。

2、SESSIONID

有些网站会使用SESSIONID(用户会员)跟踪用户访问,每个用户访问网站时都会生成一个独立的SESSIONID加入到URL中。搜索引擎每一次访问都会被当成新的用户,URL中会加上一个不同的SESSIONID,这样搜索引擎每次访问的时候都是不同的URL地址。

3、各种跳转

除了301跳转外,搜索引擎对其他形式的跳转也很敏感,比如302跳转、JAVA跳转、FLASH跳转、Meta Refresh跳转。

4、框架结构

使用框架结构设计的页面,在早期还是很流行的。因为这对网站的维护还是比较方便的。不过,现在的网站很少使用框架设计网页,因为这不利于搜索引擎抓取和收录。

5、动态URL

动态URL指的是数据库驱动的网站所生成的、带有问号、等号等参数的网址。一般来说动态URL不利于搜索引擎蜘蛛爬行,应该尽量避免。

6、JAVA链接

由于JAVA可以创造出很多吸引人的视觉效果,有些网站喜欢用JS生成导航,这也是搜索引擎蜘蛛无法识别的信息,因此在实际操作中,尽量不要用JAVA。

7、强制使用cookies

有些网站为了实现某种功能,如用户登录信息、跟踪用户访问路径等等,强制用户使用cookies,用户浏览器如果没有启用cookies,那么页面显示就不正常,这在一定程度上会造成搜索引擎无法正常访问。

推荐阅读