搜索引擎的收录机制与SEO过程
之前焦大seo说过要给大家说说搜索引擎的收录。不过说收录机制,主要也是对Google和百度这么多年的不雅观察,做个比较不雅观察,主要是从不雅观察的经验的角度来说。至于什么搜索引擎一步步的收录的步骤机制,可以去网上查资料。 一般来说,必定是内容被收录的越多,搜索引擎导入过来的搜索流量就越大。一般情况是很难违背这个定律的。 因为这个原因。所以我们在做SEO的过程傍边,当然就是希望能够产生出更多的带有目标关键词的页面。只要这些页面能够被搜索引擎收录,就有很大的可能性带来更多的流量。 对于老的具有不错权重基础的站点来说,这里面有一个关键问题,就是:是不是只要页面被收录了,就会有排名?不需要过长时间的排名等待。
这个问题。曾经对于Google来说是是,但现在不是。对于百度来说,现在还是是,但有所减弱。这个问题会牵扯出搜索引擎技术现状。就是有没有把收录和排名剥离开来。就是收录是收录,排名是排名。
曾经在2007年,我们操作的一个企业网站的SEO项目,这个网站是一个有历史时间的基础老站点。我们给站点制定了内容策略,整体导入了3万篇内容。这些内容被百度和Google收录的很快,然后在一周的时间内,这些页面就大部分都获得了排名了。
这些页面的内容质量还比较高,是二级目录的页面,所以锁定的关键词还不是长尾关键词。但也非常快的获得排名了。
然后再到2010年,我们操作的别的一个行业门户网站。通过给门户网站增加了一个问答频道,在较短的时间给问答导入了100万数据。当百度收录到60万数据的时候,百度导入过来的流量就已经超过了每天20万UV的流量。
这两个案例情况就体现搜索引擎并没有将大量数据的收录和排名进行剥离。这其实很容易会导致一些黑帽SEO的攻击。例如短时间导入数千万内容。
但是在这个问题上,搜索引擎是不是没有预防办法,是有的。但是是滞后的。在门户网站快速获得了这些流量后,第二年,我们不雅观察在问答的流量在慢慢下降。因为时间太长,这有可能已经是搜索引擎更新了新算法导致也是有可能。但是第一个我们说的企业站的阿谁案例,丝毫不受影响。
我很早的时候有一个预判,就是搜索引擎关于收录和排名的机制发展就是:大量收录,收录等于排名,收录不等于排名。三个步骤演化。
因为老站点的权重的关系。一个大型门户老站点,如果在8个月时间内导入了200万的数据是很容易能够在一个比较短的时间内获得至少10-20万的日UV流量。这其实是一种漏洞。
在Google的历史上,也曾出现过网站导入过亿的数据被收录从而获得大量的流量的例子发生。
现在来看,,Google似乎已经到了收录不等于排名的阶段,百度还不完全是。
也正是解决了这些问题,Google才会在收录机制上反应的更快速,更快的收录网站的新页面。而如果没有能够有效剥离,那对新内容的收录就要慎重很多。两者在结果上会出现这个差异化。
第二点:收录是不是要依靠权重还是靠发现。
我们通常被鼓励多做网站地图,多配合使用各种通知搜索引擎有数据更新的推送功能。这些东西,根据我的不雅观点。我是觉得作用并不大的,只不过技术实现上并不难,所以做了比没做好。但要真正讨论,我认为作用是不大。
一个新站点的收录可以依靠被发现。但是新站点的内页被收录,更多就是依靠内容质量与网站权重了。
所以要提高收录量,重点还是要把关好网页的内容质量,做好网站结构,提升网站的权重。
对于新站点来说,重要的是做内容质量和网站结构的优化。
第三点:收录的配额问题。
尽管在百度搜索资源平台都出现过关于网站收录的配额这个说法。但我认为还是认为,多少可以忽略掉这个。
官方一篇文章中的不雅观点是:
由于Baiduspider对每个站点的抓取额是有限定的,所以这些垃圾搜索结果页被百度收录,会导致其它有意义的页面因配额问题不被收录,同时可能因百度处理垃圾页面而影响网站正常排名。
相关文章:
相关推荐: