[seo优化]重复文章为什么那么多?搜素引擎的针对措施

在SEO网站优化工作中,重复的做一件事一直是业内关注的问题。经常有人讨论,过多的重复内容会不会被搜索引擎惩罚或者降权。日前,百度对内容采集站点进行大批量的降权,但仍有很多朋友发现自己的文章被装载,甚至在排名上比自己的原创还高。对于网站上那么多重复的内容,百度搜索引擎是如何看待网站优化的呢?

u=160880039,2835381015&fm=27&gp=0.jpg

首先对于百度到底会不会惩罚重复内容的问题,我们要明确重复内容和采集站点还是有一定区别的。从当前情况来看,百度对于大部分重复内容并没有很明显的打击迹象,对此或许可以理解为:当前百度对重复内容不会有惩罚。尽管如此网站优化专家在做网站诊断时,都会讨论外部站点重复内容的数量问题,正常来讲会通过站长工具来统计是否被附带原文链接。

为此,百度也很明确的表示,搜索引擎一直在试图解决原创文章被转发后排名高于原创的问题,但目前仍然在测试阶段。当然,细心的人可能会从中发现一个明确的信号,拥有原创保护的站点,提交链接一旦审核通过,在移动端的搜索展现上就会加注原创标签,排名自然就会比转发文章高。

其次则是对于采集内容排名为什么那么高的问题,这里面的采集内容,应该是分为权威站点转发和整站采集两种情况。

对于权威站点转发,在百度推出熊掌号后,得到了明显的改善。为什么百度会给予这部分站点的转发内容很高的排名,或许与站点权威度和原创比例有一定的关系,同时信息传播的角度考虑,为了更好的把优质文章展现在搜索结果页面,也是可以理解的。且权威站点的转发,都会附带版权链接,给新站也是建立友好的外部链接。

相比,整站采集就完全不同了,大批量的采集内容,虽然会保持网站有持续更新的频率,同时也会发现收录还不错,但采集内容几乎没有网站优化排名,这也是目前新闻外链还能存活的一点点理由。在百度推出飓风算法后,很明确的态度就是严厉打击恶劣采集站点,看来日后连收录都会成为泡影。

为此,网站优化也表示,SEO是网站优化的一种策略,有时候我们很难去判断面对重复内容与采集内容之间的临界点。但是本质上都是为了能够更好的提升网站排名,网站排名并不只是在于内容上,要将眼界放宽到整个网站,才不回本末倒置,困在内容的枷锁内。

标签:原创文章, 内容SEO, 排名优化, 网站诊断

添加新评论