Linus
Linus

原文发布于

2026年03月25日

/

最新更新于

2026年03月25日

/

阅读

10
2

Google 3 月垃圾更新来了,但真正影响你的可能是另一件事

Google 把这次更新叫做 "普通垃圾更新",但 3 月的搜索圈不普通。

2026 年 3 月 24 日太平洋夏令时间,Google 在 Search Status Dashboard 上正式宣布:March 2026 Spam Update 开始推送。官方措辞极其克制——"a normal spam update",没有新政策,没有新分类,预计几天内完成。如果只看声明,这是一次例行反垃圾行动。

但把 2 月以来的背景放进来,这件事就不那么 "普通" 了。(这是今年的第二次官方确认更新,第一次是 2 月的 Discover 专属核心更新。)

3 月发生了两件事,很多人搞混了

先把时间线理清楚。今年 3 月,搜索排名圈实际发生了两轮不同性质的波动。

第一轮,3 月初开始,SEMrush Sensor、MozCast 等监测工具的波动指数多次触达历史高位,部分追踪工具显示超过 50% 的监测站点出现可见度变化。Reddit r/SEO 和 r/SaaS 里充满了 "AI 内容被打""SaaS 博客流量断崖" 的吐槽。但 Google 从未正式宣布这是一次命名的核心更新(Core Update)——没有 Search Status Dashboard 记录,没有官方博客,只有一句 "核心算法在持续改进"。业界为了讨论方便,把这轮波动叫 "March 2026 Core Update",严格说这是社区共识称呼,不是 Google 官方命名。

第二轮,3 月 24 日正式宣布的垃圾更新,这才是今天的主角。

这两件事的区别很重要。第一轮是内容质量的重新评估,打的是 AI 薄内容、E-E-A-T 不足、INP 速度差的页面;第二轮是 SpamBrain 主导的垃圾清理,打的是内容工厂、链接操纵、隐藏 / 伪装等经典 spam 手法。很多人把两轮叠加的影响全算到垃圾更新头上,导致对策方向出偏差。

对比一下,过去几年的 3 月:2024 年有史上规模最大的 March Core Update(历时 45 天,低质内容减少 45%,同时发布三项新反垃圾政策);2025 年有 March Core Update(14 天,大量扶持真实创作者内容)。今年不一样——没有单一的 "大 MCU",换成了内容质量波动 + 独立垃圾更新的双连击。感觉不像以前每年 3 月那种 "全行业抖三抖" 的大地震,是因为冲击被拆成了两个方向分开来了。

这次垃圾更新 SpamBrain 在做什么

SpamBrain 不是一个静态的规则过滤器,它是一个持续学习的深度神经网络。过去两年,它被强制 "喂养" 了海量 AI 生成垃圾数据——内容农场工业化生产的文章、伪装成原创的大规模洗稿、批量购买的低质外链。这次更新本质上是 SpamBrain 在消化了这批数据之后,更新了自己的模式识别能力。

官方文档对核心打击目标的描述没变:规模化内容滥用(Scaled Content Abuse)、网站声誉滥用(Site Reputation Abuse)、过期域名滥用(Expired Domain Abuse)、隐藏与伪装行为(Cloaking)。这些政策 2024 年 3 月就已经公布了,这次是执法能力的升级,不是规则的新增。

有一个机制值得特别注意:针对链接垃圾,SpamBrain 采用的是 "永久中和" 逻辑。识别出违规链接后,系统不一定发手动惩罚通知,而是直接在底层剥夺这些链接曾经传递的权重收益。站长即便事后删除了所有违规链接,之前因此得到的排名基线也找不回来了。这和内容层面的违规不同——内容违规还有修复→重新评估→缓慢恢复的路径,链接部分是单向的。

社群在说什么

更新刚宣布几小时,BlackHatWorld 上就开了一个帖:"[Incoming Today] Google releases 24 March 2026 spam update - What will G target?" 楼主是资深会员,他的判断是:

这不是打击 AI 内容,而是打击 "content factories"——那种 2-3 个月狂发 80% 页面、之后就停更、话题极广却没深度、内部链接像自动生成、完全没有作者实体信号的站点。

他拿 2025 年 8 月的垃圾更新类比:干净站点不动,弱鸡直接消失。回复区主要是 "又来焦虑了" 的集体吐槽,和对 "无灵魂批量站" 被精准清理的认同。没人报告自己被打,大家都在观望 48-72 小时后 Search Console 的数据。

Reddit r/SEO 那边气氛是谨慎观望:"It just dropped today so nobody actually knows yet — including Google, who described it as'a normal spam update'on LinkedIn."少数人在提醒 "别跟前面的内容质量波动搞混,这次是纯垃圾清理"。真正的受害者数据要等 3-5 天后才会集中出现。

有意思的是,Reddit r/SaaS 里关于 3 月初内容质量波动的讨论比垃圾更新热闹得多。一篇 "SaaS 的 SEO 在一夜之间彻底改变" 的帖子反响强烈:缺乏人类专家监督的 AI 批量内容可见度暴跌 35-60%,署名 "团队撰写" 的通用博客文章快速失去排名,E-E-A-T 要求在收紧——这些都是 3 月初那轮内容质量波动的影响,不是垃圾更新。

一个让人费解的异常:老站的 "信任缓冲"

在这段时间 Reddit r/SEO 里有一个数据很有意思。一位资深用户公布了 16 个月的追踪结果,涵盖 2000 篇纯 AI 生成文章:绝大多数页面排名未能恢复,YMYL 领域(金融、健康)100 个页面里能留在索引里的不到 15 个。

但他同时发现了一个异常:当他向一些已经建立了历史信任的旧页面中注入新的 AI 生成内容时,这些页面的流量出现了 17 倍甚至 19 倍的反弹——主要归功于旧有内容重新活跃。

这个发现和 ThatWare、BHW、WebmasterWorld 等社区的零散观察指向同一件事:** 长期合规运营的域名对 AI 内容有更高的容忍度 **。一个有历史信任资产(持续的用户互动、干净的外链记录、真实的实体信号)的老站,植入部分 AI 辅助内容,系统判定的风险权重明显低于一个刚成立就靠 AI 批量起步的新站。

这不是说老站可以无限制地用 AI 内容。而是说,如果你在 2025 年之前已经建立了实质性的内容资产,这些历史积累在算法眼中是有价值的缓冲。反过来说,2025 年之后新起步、直接走内容工厂路线的站点,几乎没有这个缓冲空间。

英文社区对这个现象的描述是 "trust vault" 或 "historical authority buffer"——算法在评估新内容时,会把域名的历史合规记录纳入上下文。

这次垃圾更新跟你有没有关系

Google 自己说了:干净站点基本不受影响。这话我信。真正高风险的是满足以下特征的站点:

  • 短时间内发布了大量页面(几个月内暴增 50%+ 以上),之后停更
  • 话题覆盖极广,缺乏主题权威性,像内容农场的批量生产模式
  • 几乎没有可信的作者实体信号(无作者简介、无真实 credentials)
  • 内部链接像自动生成,看不出人工的内容组织逻辑
  • 外链来自大规模购买或 PBN,被 Penguin 类机制识别

如果你的站点不在上面这些类型里,不用专门为这次更新做什么。SpamBrain 的目标是那些靠规模操纵排名的站点,不是认真做内容的人。

如果你的站点在 3 月已经有了明显的流量波动,先确认是哪轮影响:是 3 月初内容质量重新评估的影响(看 E-E-A-T 信号、信息增益、页面深度),还是 3 月 24 日之后才开始跌的(更可能是垃圾更新)。方向不同,应对也不同。

Google 说这次 rollout 只需几天,比 2025 年 8 月那次近一个月的垃圾更新短很多。这意味着系统对目标的判定更精准了。


关于作者

Linus 做 SEO 顾问这些年,经手过的案子里有不少是 "垃圾更新受害者":有外链买太多被中和的,有内容发太猛被判内容工厂的,也有完全没问题却被误伤的。每次垃圾更新周期他都会盯 GSC 数据,帮客户判断是哪类问题,对症下药。

这篇文章里的判断,来自对 Reddit、BlackHatWorld、WebmasterWorld 等社区的实时跟踪,以及对多个客户站点在 3 月波动期的观察。更新刚开始推送,真正的数据要等几天才完整,但目前的社群共识和历史规律已经能给出基本判断框架。

在AI里面继续讨论: