好,我们直接看问题。
排名骤降和收录减少,在多数情况下是同一个原因的两个表现。Google 或其他搜索引擎判断你的页面集合整体质量下降,或者信任度降低,会先减少收录(去重、去低质),然后保留的页面排名随之下滑。如果你同时看到这两个信号,说明问题出在站内,而不是单一页面被竞争对手超越。
我按排查顺序,从最常见到相对隐蔽,列出导致这一现象的技术和内容因素。
1. 抓取预算被大量浪费
搜索引擎给每个站点的抓取配额是有限的。如果你的站点让爬虫把时间花在低价值 URL 上,高质量页面的发现和更新就会延迟,收录和排名都会受影响。
典型症状:
- Google Search Console 的“抓取统计信息”中,每天抓取请求量很大,但“已发现 - 当前未编入索引”的页面数量持续增加。
- 服务器日志里,Googlebot 反复访问筛选页面、搜索页面、分页深层页面,但很少访问核心内容页。
需要检查的浪费点:
- 无限空间:比如日历翻页、过滤组合 URL,每个组合都生成独立 URL 且没有 canonical 指向规范版本。
- 内链中携带大量跟踪参数:fbclid、utm_source 等参数在站内链接中出现,爬虫会把这些变体当成新 URL 去抓取。
- JavaScript 生成的链接:爬虫会尝试渲染并抓取,但如果这些链接指向低质页面,抓取预算就被消耗了。
操作步骤:
- 在 Google Search Console 的“设置”中查看抓取统计,确认总抓取请求是否远高于你实际有价值的页面数量。
- 导出服务器日志,用 Screaming Frog Log File Analyser 分析 Googlebot 的抓取路径,找出抓取频率最高但不应被抓取的 URL 模式。
- 对低价值 URL 做 301 重定向到规范版本,或在 robots.txt 中禁止抓取(注意:robots.txt 阻止抓取不会阻止索引,如果这些 URL 有外链,仍可能被索引,需要配合 noindex)。
- 检查站内链接,去掉不必要的查询参数,所有内部链接使用绝对路径的规范形式。
2. 内容质量被算法整体降权
Google 的核心算法更新(如 Helpful Content Update)会对整个站点的内容质量做整体评估。如果算法判定你的站点有相当比例的内容对用户没有实质帮助,整个站点的排名都会被压低,而不仅仅是那些低质页面。
触发整体降权的常见模式:
- 内容与站点主题偏离:一个技术博客突然大量发布旅游攻略,且这些内容没有原创性。
- 大规模 AI 生成内容:页面文本有明显模板化痕迹,缺乏一手经验、数据或案例。
- 内容过时且未维护:大量页面引用的是几年前的行业信息,没有更新日期和修订记录。
具体检查方法:
- 在 Google Search Console 的“效果”报告中,对比更新发布前后的日期,查看是否在某个已知算法更新日(可参考 Google Search Status Dashboard 的历史记录)出现流量断崖。
- 使用 site: 命令查看被收录的页面,手动抽查前 50 个 URL,判断它们是否真正解决了某个具体问题,还是仅仅重组了公开信息。
- 检查页面是否有明确的内容元数据:发布日期、作者信息、引用来源。没有这些信息的页面在 YMYL(Your Money Your Life)类站点中尤其容易被降权。
处理方式不是删页面,而是:
- 对低质页面做实质性重写,加入操作步骤、实测数据、错误案例。
- 对过时内容更新数据、截图、版本号,并在页面顶部标注更新时间。
- 对完全无价值的页面,执行 301 重定向到最相关的优质页面,或返回 410 状态码明确告知搜索引擎该页面已永久移除。
3. 技术架构变更导致索引信号混乱
收录减少的一个直接技术原因,是搜索引擎看到的页面信号与之前不一致,导致它无法确定哪个版本应该被索引。
常见场景:
- 网站迁移或改版时,canonical 标签配置错误,大量页面指向同一个 URL。
- HTTPS 迁移后,HTTP 版本没有全部 301 到 HTTPS,导致搜索引擎看到两个版本。
- CDN 或缓存配置错误,导致爬虫抓取到的内容和用户看到的不同(cloaking 的误判)。
排查步骤:
- 在 Google Search Console 的“网址检查”工具中,输入几个排名下降的 URL,查看 Google 看到的渲染页面截图,对比实际浏览器中的页面,确认内容是否一致。
- 用 Screaming Frog 全站扫描,查看 canonical 标签的指向,筛选出 canonical 指向其他 URL 的页面,确认这些指向是否正确。
- 检查 HTTP 响应头中的 X-Robots-Tag,确认没有在服务器层面错误地添加了 noindex 或 nofollow。
- 查看 Search Console 的“索引编制”报告,按“原因”分组,看是否有大量页面被标记为“重复网页,用户未选定规范网址”或“已抓取 - 尚未编入索引”。
4. 外链质量被算法降权或人工处理
如果你的站点有大量低质量外链,Google 的 SpamBrain 系统可能会直接忽略这些链接的权重传递。在某些情况下,如果被判定为链接操纵,站点会收到人工处理通知,排名会大幅下降。
判断方法:
- 登录 Google Search Console,查看“安全与手动操作”下的“人工处理措施”,确认是否有通知。
- 如果没有人工处理,用 Ahrefs 或 Semrush 查看外链增长曲线。如果在排名下降前 1-2 个月,外链数量出现异常增长,且来源域名 DR 值低、内容与你的站点无关,说明触发了算法层面的链接降权。
处理方式:
- 有人工处理通知:按照通知中的示例链接,整理出完整的低质外链列表,通过 Google 的拒绝链接工具提交,同时在通知中回复说明已清理。
- 无人工处理但外链异常:同样需要整理低质外链并提交拒绝文件。拒绝文件提交后,效果通常在 2-4 周后体现,因为 Google 需要重新抓取这些链接并处理。
5. 页面体验指标持续不达标
Core Web Vitals 不是强排名因素,但如果你的站点在 LCP、INP、CLS 三个指标上长期表现差,且内容质量与竞争对手相当,页面体验就会成为决定排名先后的因素。更重要的是,如果页面加载过慢导致爬虫无法完整渲染,收录本身就会受影响。
需要关注的阈值(基于 Google 公开文档):
| 指标 |
良好 |
需要改进 |
差 |
| LCP(最大内容绘制) |
≤2.5 秒 |
2.5 - 4.0 秒 |
>4.0 秒 |
| INP(与下一次绘制的交互) |
≤200 毫秒 |
200 - 500 毫秒 |
>500 毫秒 |
| CLS(累计布局偏移) |
≤0.1 |
0.1 - 0.25 |
>0.25 |
操作步骤:
- 在 Search Console 的“核心网页指标”报告中,查看移动端和桌面端分别有多少不良 URL。
- 用 PageSpeed Insights 测试具体 URL,关注“实验室数据”中的 LCP 元素是什么,通常是主图、标题文本或背景图。
- 对 LCP 问题:将主图使用 img 标签直接写在 HTML 中,不要用 CSS 背景图加载;对图片使用 fetchpriority="high" 属性;确保图片资源不被 lazy loading 延迟。
- 对 CLS 问题:为所有图片和视频容器设置明确的 width 和 height 属性;避免在现有内容上方动态插入广告或表单。
- 对 INP 问题:用 Chrome DevTools 的 Performance 面板录制用户交互,找出长任务(超过 50ms 的 JavaScript 执行块),拆分或延迟执行。
6. 结构化数据错误导致富结果丢失
如果你的排名下降主要体现在富结果(如 FAQ、HowTo、产品标记)的消失,而不是蓝色链接排名的下降,问题出在结构化数据。
检查方法:
- 在 Search Console 的“增强功能”报告中,查看各个结构化数据类型是否有错误或警告增加。
- 用 Google 的富媒体搜索结果测试工具,输入受影响的 URL,查看哪些字段缺失或不符合规范。
常见错误:
- FAQ 页面标记了不在页面正文中显示的问题和答案。
- 产品标记中缺少 price、availability 等必填字段,或价格货币与目标市场不匹配。
- HowTo 标记中缺少图片或步骤描述过于简略。
修复后,在 Search Console 中提交对应 URL 的验证,Google 会在几天内重新抓取并恢复富结果展示。
7. 被镜像站或竞争对手复制内容
如果你的原创内容被其他站点完整复制,且对方站点在搜索引擎眼中的权威度更高,Google 可能会将你的页面判定为重复内容,导致你的版本被从索引中移除。
确认方法:
- 从你的文章中取一段 30 字左右的连续文本,用引号括起来在 Google 中搜索。
- 如果搜索结果中其他站点的排名在你的站点之前,说明内容被镜像且搜索引擎选择了对方作为规范版本。
处理方式:
- 在页面中添加明确的自引用 canonical 标签。
- 在页面文本中包含你的品牌名或域名,这样即使被复制,搜索引擎也能识别原始来源。
- 对恶意镜像站,向 Google 提交版权移除请求(需要 DMCA 表格)。
8. 站点结构变更导致内链权重流失
导航改版、分类页调整、面包屑路径修改,这些操作会改变 PageRank 在站内的流动路径。如果核心内容页面的内链数量或来源页面权重下降,排名会随之下降。
量化检查方法:
- 用 Screaming Frog 扫描全站,在“内部”标签页中查看每个页面的内链入链数量。
- 对比排名下降页面的历史内链数量(如果你有之前的扫描记录)和当前数量。
- 检查首页、分类页是否还链接到这些页面,链接的锚文本是否从精确匹配变为通用词汇。
恢复方法:
- 在相关的高权重页面(首页、分类页、热门文章)中,以自然的方式添加指向排名下降页面的链接,使用描述性锚文本。
- 确保面包屑导航在所有页面类型中保持一致,使用结构化数据标记。
以上因素通常是叠加出现的。一个站点可能同时存在抓取预算浪费、内容过时和内链流失三个问题。排查时建议从 Search Console 的索引报告和抓取统计入手,先解决收录问题,再处理排名问题,因为收录是排名的基础。