我翻了一下最近三个月经手的几个网站,排名停滞的情况几乎都集中在几个相同的问题上。这不是什么算法波动,也不是竞争对手突然变强了,而是网站自身的技术底子和内容策略出现了断层。
先说一个被反复忽略的事实:排名停滞通常不是单一原因造成的。把问题拆开看,会清楚很多。
先查索引状态,别急着改内容
排名停滞,第一步不是去改标题标签,也不是加外链。先确认有多少页面真正进入了搜索引擎的索引库。
在 Google Search Console 的“覆盖率”报告里,重点关注两个数据:
如果“已抓取 - 未编入索引”的数量持续上升,说明 Google 判断这些页面质量不足以进入主索引。这不是技术抓取问题,是内容质量问题。
如果“已发现 - 尚未编入索引”占比过高,说明抓取预算被浪费了。Google 把时间花在了低价值页面上,真正需要排名的页面反而排不上抓取队列。
有一个容易忽略的检查点:在 Search Console 的“设置”里查看抓取统计,看过去90天的平均响应时间。如果超过300毫秒,Googlebot 会主动降低抓取频率。这个数据直接影响新内容的收录速度,收录慢了,排名自然停滞。
抓取预算分配:让爬虫只爬该爬的
中小型网站(页面数在1万以内)通常不会遇到抓取预算不足的问题,但抓取预算浪费的问题很普遍。
哪些页面在浪费抓取预算:
- 带大量筛选参数的分类页(/category?color=red&size=m&page=3)
- 站内搜索结果页
- 标签页、作者归档页,每个标签下只有1-2篇文章
- 媒体附件页(WordPress 默认会为每张图片生成一个页面)
处理方式不是删页面,而是用 robots.txt 和 meta robots 标签做精准屏蔽。
具体操作:
- 在 robots.txt 中禁止爬取站内搜索页:
Disallow: /search/
- 对筛选参数使用 canonical 标签指向主分类页
- WordPress 站点在 functions.php 中添加代码,禁止生成媒体附件页
- 标签页如果内容少于3篇,直接设置 noindex
做完这些之后,到 Search Console 的“设置”里提交 robots.txt,然后观察两周内的“已抓取页面数”变化。正常情况下,有效页面的抓取量会上升,无效页面的抓取量会下降。
内容更新策略:别把改几个字当更新
很多站长以为定期修改页面上的文字就是在做内容更新,这个认知需要纠正。
Google 判断页面是否“新鲜”的依据不是修改日期,而是实质性内容变化的幅度。修改标题标签、替换几张图片、调整几个句子的表述,这些操作对排名几乎没有影响。
有效的更新方式:
- 在原有内容基础上增加新的操作步骤或参数说明
- 补充2024年或2025年的新数据、新案例
- 增加原内容未覆盖的子话题,比如在一篇“服务器配置”的文章里补充“Nginx 1.25版本的新指令”
- 删除已过时的信息,比如某个工具已经停止维护,标注出来并给出替代方案
有一个量化标准可以参考:更新后的页面,纯文本内容增量应该不低于原内容的15%。如果原文3000字,至少新增450字以上的实质性内容。低于这个比例,Google 可能不会重新评估页面质量。
技术审计:三个直接影响排名的硬指标
以下三个指标,任何一个出问题都会导致排名停滞。
1. Core Web Vitals 的 LCP 和 CLS
LCP(最大内容绘制)超过2.5秒的页面,排名能力明显受限。移动端的 LCP 比桌面端更关键,因为 Google 使用移动优先索引。
常见拖慢 LCP 的因素:
- 首屏大图未使用 WebP 格式,未设置懒加载
- CSS 文件阻塞渲染,尤其是 @import 引入的样式表
- 第三方脚本(统计代码、客服插件、广告代码)在 head 中同步加载
CLS(累积布局偏移)超过0.1就需要处理。移动端最常见的问题是广告代码动态插入后撑开页面,以及字体加载过程中的闪烁。修复方案是给广告容器预设固定高度,以及使用 font-display: swap。
2. 内部链接结构
排名停滞的页面,往往内部链接数量也停滞了。检查方法:用 Screaming Frog 抓取全站,导出每个页面的“Inlinks”数据。如果核心页面在过去三个月内没有新增任何内部链接,它的权重传递就处于停滞状态。
每发布一篇新文章,至少给2-3个相关的老页面添加链接。不是机械地加“相关阅读”模块,而是在正文中自然引用。锚文本使用目标页面的核心关键词或变体。
3. 结构化数据错误
在 Search Console 的“增强功能”报告里,检查以下项目的错误数:
- 商品摘要(Product)
- 文章(Article)
- 面包屑导航(BreadcrumbList)
- 常见问题(FAQ)
结构化数据的错误不会直接扣分,但会导致富摘要无法展示。如果你的页面本来有富摘要展示,后来消失了,点击率会下降。点击率下降,Google 会认为用户对这个结果不感兴趣,排名就会下滑。这是一个连锁反应。
外链增长停滞:不靠数量靠相关性
外链增长停滞是排名停滞的常见原因之一,但解决方向不是去发垃圾外链。
检查方法:用 Ahrefs 或 SEMrush 查看域名的 Referring Domains 增长曲线。如果过去6个月新增引荐域名数量持续下降,或者新增数量为零,说明外链增长停滞。
解决方案分两步:
- 找到排名在你之上的3-5个页面,用工具导出它们的外链列表
- 筛选出其中相关性高、域名评级在30以上的链接来源
- 针对这些来源制作更优质的内容,然后进行外展
这里有一个容易被忽略的操作:检查已获得的外链是否仍然有效。用 Screaming Frog 的“外链检查”模式,批量检测外链页面的 HTTP 状态码。如果发现返回404、301跳转到无关页面、或者页面被 noindex,这些外链已经失效。整理出来,联系对方站长修复,或者重新争取新的链接来替代。
关键词蚕食:多个页面抢同一个词
关键词蚕食是指网站内有多个页面针对同一个关键词进行优化,导致搜索引擎无法判断哪个页面应该排名最高,结果所有页面的排名都不理想。
判断方法:在 Search Console 的“效果”报告中,筛选某个核心关键词,查看“网页”维度。如果同一个查询词对应多个 URL,且这些 URL 的排名在10-20位之间波动,就是典型的蚕食现象。
处理方式:
- 确定一个主页面,将其它页面的内容合并到主页面
- 被合并的页面设置301跳转到主页面
- 如果某个页面除了这个关键词还覆盖其他话题,保留它,但把这个关键词的锚文本链接指向主页面
- 修改被合并页面的标题标签,去掉与主页面冲突的关键词
合并之后,通常需要2-4周才能看到排名变化。期间不要反复调整。
用户行为信号:点击率和停留时间
Google 会通过 Chrome 浏览器收集用户行为数据,点击率和页面停留时间直接影响排名。
在 Search Console 中查看排名停滞页面的数据:
- 平均点击率低于同位置平均水平:需要重写标题标签和描述标签
- 平均排名在7-10位但点击率低于2%:标题标签不够吸引人,或者描述标签没有准确概括页面内容
标题标签的优化方向不是堆关键词,而是明确告诉用户这个页面能解决什么问题。对比以下两种写法:
| 原标题 |
优化后标题 |
| 服务器配置教程 |
Nginx 服务器配置:从零到生产环境的7个步骤 |
| SEO优化方法 |
网站排名停滞?检查这5个技术指标(附修复方案) |
| Python数据分析 |
用 Python 做数据分析:Pandas 常用操作速查手册 |
优化后的标题包含具体数字、明确范围、操作性质的关键词。这种标题在搜索结果中的点击率通常比泛泛的标题高出30%以上。
描述标签的长度控制在140-160个字符之间,前120个字符必须包含核心信息,因为移动端搜索结果通常只显示120个字符左右。
日志分析:看搜索引擎到底爬了什么
服务器日志是判断排名问题的最直接数据来源。Search Console 的数据是抽样统计,日志是完整记录。
需要关注的数据:
- Googlebot 访问频率:如果核心页面的 Googlebot 访问间隔超过72小时,说明抓取优先级很低
- 状态码分布:301/302跳转过多会消耗抓取预算,500错误超过1%需要立即处理
- 抓取深度:Googlebot 是否只抓取了首页和分类页,没有深入到文章页
日志分析工具推荐 GoAccess(开源,命令行运行)或者 Screaming Frog 的日志分析功能。把日志导入后,按 URL 分组统计 Googlebot 的访问次数。如果某些重要页面在过去30天内完全没有被 Googlebot 访问过,这就是排名停滞的直接原因之一。
解决方法:在 Search Console 中手动提交这些 URL 的索引请求,同时从首页或高权重页面添加指向这些 URL 的链接。Googlebot 会顺着链接重新发现这些页面。
排名停滞的检查清单
按优先级排列:
- Search Console 覆盖率报告:确认页面索引状态
- 服务器日志:确认 Googlebot 抓取频率和抓取范围
- Core Web Vitals:LCP 控制在2.5秒以内,CLS 控制在0.1以内
- 内部链接:核心页面每月新增2-3个内部链接
- 外链增长:引荐域名数量是否持续增长
- 关键词蚕食:同一关键词是否对应多个页面
- 结构化数据:富摘要是否正常展示
- 标题标签和描述标签:点击率是否低于同位置平均水平
- 内容更新:是否进行了15%以上的实质性内容增量
- 抓取预算:是否屏蔽了低价值页面的抓取
每项检查都有对应的工具和操作方法,不需要猜测,不需要等。按照这个清单逐项排查,排名停滞的原因会自己浮现出来。