网站收录异常常见原因分析

2013-07-04
  • 810
  • 0

网站在执行SEO项目时,最关心的指标是网站的自然搜索流量。对于大中型网站而言,网站收录的波动会直接造成网站流量的波动。因此分析和监测网站收录量的变化在日常SEO项目中非常重要。本文将针对收录异常常见的原因展开分析描述。

1. 网站启用泛解析。泛域名解析是指将*.域名解析到同一IP。在域名前添加任何子域名,均可访问到所指向的WEB地址。例如某团购网站,启用泛解析之后造成大量的重复页面,搜索引擎认为整站内容质量度不高,影响蜘蛛的抓取,从而造成收录异常。

2. 未合理配置Robots.txt文件。

3. 内部链接建设不合理。针对2和3这两条进行优化工作,都是为了增加搜索引擎抓取效率。对于大中型网站而言,网页数量十分庞大,如果提高蜘蛛效率,将会对网站收录产生极大的促进作用。

4. 重复内容造成的收录下降。如果网站存在大量重复内容,对搜索引擎优化极为不利,一方面会增加蜘蛛工作负荷,降低了抓取的效率,同时有可能面临降权的危险。网站如果添加谷歌管理员工具的话,在后台可以通过查看Title、Description标签重复数量来判断网站重复内容问题的严重程度。

5. 网站服务器。这条比较容易理解,如果网站服务器出现异常,对蜘蛛的抓取会造成极大的影响。从而减少网站整体收录量,影响网站自然搜索流量。

从上述五条展开分析,对网站收录异常进行全面的监测,第一时间发现异常并及时进行策略调整。