Google新的算法 – *对搜索结果的影响正在逐渐的体现,首先列举几个Google搜索排名的变化:
搜索结果出现了更多的实时内容,例如首页出现社会网站如twitter,facebook(在国内如sina围脖)等很多用户发表的即时内容。对一些权重高的网站,网页收录的速度非常快,就好像是实时的,比如一个大的网站,文章刚一发表,就出现在搜索结果上面。
搜索结果也会根据用户的个人信息出现个性化的搜索结果,自己的google收藏,google reader中的相关内容出现在搜索结果中。
Google的新算法似乎对网页的过滤更加严格,我观察到很多网站的网页收录数量下降的非常多,包括一些大的网站也是如此,例如国外著名的web2.0网站Squidoo(PR=8),我观察到索引数量由去年的250万以上到现在只有不到40万网页。我自己的几个英文站的网页收录数量也下降的非常多,原先收录几千的,现在只剩下几百,甚至有的剩下一个首页。其中有几个网站的内容都是属于早期的伪原创,Google的新算法对”重复内容“似乎不像以前那么“宽容”,现在感觉是放进入了所谓的沙盒或者直接抛弃了。
现在似乎更明显,Google对新网站的信任度更小,给予老网站,大站的权重很高,后者更容易获得好的排名。受信任的网站/网页比新的网站或者网页排名上升的更快,新的网站/网页往往要经历更严格的过滤系统以获得信任和排名。
Google改变其算法的原因分析
如今网络上的内容是急速的膨胀,越来越多的组织以及个人为了提升在搜索引擎中的排名,为了增加外部链接和流量,制造了数量巨大的垃圾内容,比如垃圾网站,自动博 客,自动采集,重复RSS,伪原创,虚假的产品评论页面等。Google应该是意识到了这个问题,为了让搜索结果更加具有相关度,多维性和提高搜索用户的 体验,开始对庞大的数据实施过滤和清理,Google通过调整和改变其算法来降低“噪音”,提供更准确的搜索结果和体验,这应该是google推出其新算法的一个大概的背景吧。
Google的*沙盒
*内容沙盒(这个概念本身存在争议,有很多人认为它其实根本不存在)就像一个存储柜把一些特定的网站或者网页放在里面与正常的索引网页隔离开来,直到出现一些相关信号来证明他们是可信任的。Google的算法越来越先进和复杂,简单的段落重组,替换文章近义词,自动博客,简单的采集等这些早期的伪原创手法,现在已经比较难通过google的机器过滤检测了。一旦它发现内容是重复的,很可能就放进了沙盒,作为直接的体现,就是收录减少了,排名一下子下降到了很多页后或者干脆找不到了。
这一变化可能在不同的领域或者不同的关键字有所区别,但确实很多关键字以及网站的排名都受到影响,有些本来排名很好的网页排名下降了或者消失了,有些网站则排名位置更靠前。这种改变可能是逐步的,经历一段时间后趋于稳定。
个人的一点总结
不管新算法具体发生了怎样的改变以及所谓的沙盒是否存在,根据以上的一些变化,我想“内容为王”这个提法将得到更多的验证,垃圾站,特别是垃圾英文站的生存空间是越来越小了。不管是做中文站还是做英文站,要想在Google这个全世界最大的搜索引擎中得到好的排名和流量,最好的方法就是花更多的精力和时间创造更多高质量的原创内容或者高质量的伪原创内容:)
本文为Net Money博客()原创,转载请注明。
申请创业报道,分享创业好点子。点击此处,共同探讨创业新机遇!