SEO搜索流量公式解读
SEO是一个多边的生态,“用户”、“你的站点”、“竞品站点”、“搜索引擎”,这4个点随便一个发生变革,都有可能导致自身站点的SEO流量颠簸。(其实还应该把像新浪、知乎这种“流氓站点”也算进来,但是“流氓站点”拿到差别行业流量的占比差不久不多是恒定的,所以也不那么重要。) 任何行业,判断任何手段是够有效的前提,是“有反馈”,而反馈时间越长,这越会影响判断的准确性。 好比网站流量涨了,有可能不代表SEO搞的好,可能是因为某个竞品网站的流量掉了。 好比有些高竞争、存在巨头网站的行业,一个处于第二梯队的网站流量变革,大部分取决于巨头网站的流量变革,它掉,你才有可能涨,它不掉,你就没机会涨,所以,除非行业整体搜索量变大,不然只能放弃行业流量竞争,寻找行业弱相关的流量来做。 然而在搞SEO的过程中,很容易把大部分目光集中在“自身网站”,而忽视了“用户”、“竞品网站”、“搜索引擎”的变革。 之前流传很广的SEO公式,“整体收录量×整体排名×整体点击率×整体搜索量”这个,放到现在感觉十分尴尬。 好比其中几个子因素: 整体收录率 = 搜索引擎抓取量 × 页面质量 如果能够得到有效“反馈”的前提,是能够对结果性指标及其影响因素做出明确且及时的数据量化。 而能够量化,就意味着不能够使用诸如“页面质量”、“权重增益”这类含糊其辞的名词,应该全部换成“XX率”、“XX量”、“XX占比”之类可进行数据计算的明确指标。 基于此,焦大SEO学堂对这个公式做了如下修改:
排名 = 页面排名 × 网站权重增益
“页面质量”怎么定义?什么页面才能叫页面质量好的?权重增益又怎么算?
有几个点可以一本道下。
全网非重复页面占比
这是反应竞争度的一个指标,公式为:
全网非重复页面占比 = 自身站点包罗关键词的页面数 / 关键词搜索结果总数
比喻说我拉出1180个词,标题中完整包罗这1180个词的页面有3400个,而这1180个词在百度搜索结果数的总量为1341722539
则:
3466 / 1341722539 = 0.0000025 = 2.5/1000000 = 1/400000
对标一下,竞争度为4到5之间,约4.4摆布,这个竞争度,差不久不多有10%的网页能够进入倒排。
采集内容滞后时间点
识别采集网页最粗暴的特征,就是看网页上线的时间呗,搜索爬虫抓到A网页,隔了2天,抓到B网页,,B网页正文与A网页正文几乎一致,假设两个权值一样,哪个留下来的概率大?
所以,如果网站有较大比例内容是采集的,则需要努力缩短采集页面与源页面的上线时间间隔。比喻说,A网页12:20发出来的,我12:25就抓过来,12:30就上线了,这种接近于实时同步采集。这种采集,能够能够必然比例提升采集内容被收录的概率。
所以按时采集的站为啥容易挂呢?这个应该是一个比较重要的因素。
真实用户使用特征
现在一些网站,无论SEO怎么搞,什么上词、做聚合页、搞链接结构,反正死活上不去,所以感觉高竞争行业的站点,用之前传统手段搞SEO可能已经行欠亨了。
人无我有的阶段,拼的是流量,人有我优的阶段,拼的是留存,靠的是产品体验。所以搜索引擎机器学习到现在,会不会按照有真实用户使用、体验好的网页上的共同特征,来参考其他网页?
比喻说我看到阿里巴巴SEO专利有一条关于流量分发的情况,可以理解为,电商网站一个产品词的SEO搜索页面。
电商网站有B端和C端用户,如果一个电商网站有大量真实用户在使用,那么在网页产品设计上,一定要考虑给B端用户分发的流量要尽可能公平。
有大量真实用户使用的电商网站,会兼顾流量分发,同一个B端用户发布的商品,在列表中只能出现一次,不能出现多次,也就是列表中出现的商品,全是由差别的B端发布的。
相关文章:
相关推荐: