搜索引擎蜘蛛抓取份额是什么?抓取份额是由什么决定的?怎样节省抓取份额?对大中型网站来说,这是个颇为重要的SEO问题,有时候会成为网站自然流量的瓶颈,今天我们就一一为大家介绍一下

一月份时,Google新的SEO代言人Gary Illyes在Google官方博客上发了一篇帖子:What Crawl Budget Means for Googlebot,评论了搜索引擎蜘蛛抓取比例相关问题。对大中型网站来说,这是个颇为重要的SEO问题,有时分会成为网站天然流量的瓶颈。

今日的帖子总结一下Gary Illyes帖子里的以及后续跟进的许多博客、论坛帖子的首要内容,以及我自己的一些事例和了解。

着重一下,以下这些概念对百度相同适用。

什么是搜索引擎蜘蛛抓取比例?

望文生义,抓取比例是搜索引擎蜘蛛花在一个网站上的抓取页面的总的时刻上限。关于特定网站,搜索引擎蜘蛛花在这个网站上的总时刻是相对固定的,不会无限制地抓取网站一切页面。

抓取比例的英文Google用的是crawl budget,直译是匍匐预算,我觉得不太能阐明是什么意思,所以用抓取比例表达这个概念。

抓取比例是由什么决议的呢?这牵扯到抓取需求和抓取速度限制。

抓取需求

抓取需求,crawl demand,指的是搜索引擎“想”抓取特定网站多少页面。

决议抓取需求的首要有两个要素。一是页面权重,网站上有多少页面达到了底子页面权重,搜索引擎就想抓取多少页面。二是索引库里页面是否太久没更新了。说到底仍是页面权重,权重高的页面就不会太久不更新。

页面权重和网站权重又是休戚相关的,进步网站权重,就能使搜索引擎乐意多抓取页面。

抓取速度限制

搜索引擎蜘蛛不会为了抓取更多页面,把人家网站服务器拖垮,所以对某个网站都会设定一个抓取速度的上限,crawl rate limit,也便是服务器能接受的上限,在这个速度限制内,蜘蛛抓取不会拖慢服务器、影响用户拜访。

服务器反应速度够快,这个速度限制就上调一点,抓取加速,服务器反应速度下降,速度限制跟着下降,抓取减慢,乃至中止抓取。

所以,抓取速度限制是搜索引擎“能”抓取的页面数。

抓取比例是由什么决议的?

抓取比例是考虑抓取需求和抓取速度限制两者之后的成果,也便是搜索引擎“想”抓,一起又“能”抓的页面数。

网站权重高,页面内容质量高,页面够多,服务器速度够快,抓取比例就大。

小网站没必要忧虑抓取比例

小网站页面数少,即便网站权重再低,服务器再慢,每天搜索引擎蜘蛛抓取的再少,一般至少也能抓个几百页,十几天怎样也全站抓取一遍了,所以几千个页面的网站底子不必忧虑抓取比例的事。数万个页面的网站一般也不是什么大事。每天几百个拜访要是能拖慢服务器,SEO就不是首要需求考虑的事了。

大中型网站或许需求考虑抓取比例

几十万页以上的大中型网站,或许要考虑抓取比例够不行的问题。

抓取比例不行,比方网站有 1 千万页面,搜索引擎每天只能抓几万个页面,那么把网站抓一遍或许需求几个月,乃至一年,也或许意味着一些重要页面没方法被抓取,所以也就没排名,或许重要页面不能及时被更新。

要想网站页面被及时、充沛抓取,首先要确保服务器够快,页面够小。假如网站有海量高质量数据,抓取比例将受限于抓取速度,进步页面速度直接进步抓取速度限制,因此进步抓取比例。

百度站长渠道和Google Search Console都有抓取数据。如下图某网站百度抓取频次:

搜索引擎蜘蛛抓取比例是什么?抓取比例是由什么决议的?(搜索引擎抓取的规则)  搜索引擎 蜘蛛 抓取份额 第1张

上图是SEO每天一贴这种等级的小网站,页面抓取频次和抓取时刻(取决于服务器速度和页面巨细)没有什么大联系,阐明没有用完抓取比例,不必忧虑。

有的时分,抓取频次和抓取时刻是有某种对应联系的,如下图另一个大些的网站:

搜索引擎蜘蛛抓取比例是什么?抓取比例是由什么决议的?(搜索引擎抓取的规则)  搜索引擎 蜘蛛 抓取份额 第2张

能够看到,抓取时刻改进(减小页面尺度、进步服务器速度、优化数据库),显着导致抓取频次上升,使更多页面被抓取录入,遍历一遍网站更快速。

Google Search Console里更大点站的比如:

搜索引擎蜘蛛抓取比例是什么?抓取比例是由什么决议的?(搜索引擎抓取的规则)  搜索引擎 蜘蛛 抓取份额 第3张

最上面的是抓取页面数,中心的是抓取数据量,除非服务器犯错,这两个应该是对应的。最下面的是页面抓取时刻。能够看到,页面下载速度够快,每天抓取上百万页是没有问题的。

当然,像前面说的,能抓上百万页是一方面,搜索引擎想不想抓是另一方面。

大型网站另一个常常需求考虑抓取比例的原因是,不要把有限的抓取比例糟蹋在无意义的页面抓取上,导致应该被抓取的重要页面却没有机会被抓取。

糟蹋抓取比例的典型页面有:

很多过滤挑选页面。这一点,几年前关于无效URL匍匐索引的帖子里有具体评论。站内仿制内容低质、废物内容日历之类的无限个页面

上面这些页面被很多抓取,或许用完抓取比例,该抓的页面却没抓。

怎样节约抓取比例?

当然首先是下降页面文件巨细,进步服务器速度,优化数据库,下降抓取时刻。

然后,尽量防止上面列出的糟蹋抓取比例的东西。有的是内容质量问题,有的是网站结构问题,假如是结构问题,最简略的方法是robots文件制止抓取,但多少会糟蹋些页面权重,因为权重只进不出。

某些情况下运用链接nofollow特点能够节约抓取比例。小网站,因为抓取比例用不完,加nofollow是没有意义的。大网站,nofollow是能够在必定程度上操控权重活动和分配的,精心设计的nofollow会使无意义页面权重下降,提高重要页面权重。搜索引擎抓取时会运用一个URL抓取列表,里边待抓URL是按页面权重排序的,重要页面权重提高,会先被抓取,无意义页面权重或许低到搜索引擎不想抓取。

最终几个阐明:

链接加nofollow不会糟蹋抓取比例。但在Google是会糟蹋权重的。noindex标签不能节约抓取比例。搜索引擎要知道页面上有noindex标签,就得先抓取这个页面,所以并不节约抓取比例。canonical标签有时分能节约一点抓取比例。和noindex标签相同,搜索引擎要知道页面上有canonical标签,就得先抓取这个页面,所以并不直接节约抓取比例。但有canonical标签的页面被抓取频率常常会下降,所以会节约一点抓取比例。抓取速度和抓取比例不是排名要素。但没被抓取的页面也谈不上排名。

转载请说明出处
知优网 » 搜索引擎蜘蛛抓取比例是什么?抓取比例是由什么决议的?(搜索引擎抓取的规则)

发表评论

您需要后才能发表评论