做好数据监控,让SEO更加可控

我始终提倡科学的SEO方法:以常识为基础,数据为导向来做SEO。利用这样的SEO方法来优化网站,其效果是非常可控的。这里要强调数据分析的力量,做好网站的数据监控,不仅可以及时发现网站存在的问题,还可以有针对性的去做SEO优化,避免了盲目操作。举个实例,先上图:上图是一个小型网站的百度蜘蛛爬行数据,都是非常基础的蜘蛛行为数据。通过常识我们知道,蜘蛛的爬行和抓取对网站有着非常大的影响,比如:抓取量的多少可以影响到网站的收录量;但是,光是抓取量总数高是没有用的,我们还希望蜘蛛尽量不重复抓取页面,这样才能有效提高网站的整体收录,所以我们还要监控不重复抓取率这个数据;还有,我们都知道权重高的网站蜘蛛数量会比较多,24小时一直不间断的在网站上爬行,通过监控蜘蛛的数量、来访次数、停留时间等数据,我们可以看出网站的权重变化。显然,这个网站2011年10月份的数据每一项都比较低,证明此时网站权重、蜘蛛抓取都存在一定问题。这时候我主要集中精力去解决蜘蛛的爬行问题,通过增加原创内容、更新频率、调整服务器配置、增加相关性高的外部链接、调整网站结构、应用nofollow标签等优化手段很好的提升了蜘蛛的抓取量、不重复抓取及网站权重。大家可以从上面的数据看出,每一项数据都在稳步的上涨。这时候的网站表现为,文章页面收录较快,整体收录量上涨,大部分长尾排名提升,网站整体流量也增长了不少。通过实例我们可以得出结论:相信常识和数据的力量,SEO一定可以做到很科学很可控。