百度 索引 (索引量)是从百度获取搜索流量的基础。索引(索引量)数据也是SEO监控的核心数据。有时网站管理员会遇到索引或索引卷数据。情况急剧下降,但我不知道如何应对。下面,麒麟SEO为大家分享百度(收录)指数下降的原因分析及解决方法!
一、百度(含)指数跌幅分析图
二、百度(收录)指数下降的常见原因——网站原因
1、内容数据所在的URL不规范、不统一
[统一自己站点的url规范]
多个域名可以正常访问200状态的网页内容;一个域名下的多个url形式可以访问相同的内容,如大小写url、url规则变化等。
解决方法:选择主域名(或主url),其他域名下的所有url都会被重定向到301的主域名(或主url),并提交域名修改(或目录url修改)到平台工具
【外部平台使用自己的站点数据】
A.营销合作,网站数据转移到其他平台;内容积极分发,推广者将自己的内容完全转发到优质平台——这两个原因可能导致搜索引擎收录了外部平台的内容而拒绝了原站内容
解决方法:利用平台常用索引工具的API推送功能,及时在网站上提交新链接,延迟将内容转移到其他平台的时间;
B.被镜像后,用户可以通过其他托管实体的域名或url直接访问自己的内容。
解决方案:注意域名解析安全和服务器安全;绑定唯一可解析的域名或唯一可访问的url;对页面内容中的链接使用绝对地址
2、网站人气下降
【网页内容相关】
A、内容质量下降
B、更新量和频率降低
解决方案:稳定更新频率,根据内容的发展,扩大编辑团队,产出更多新内容,使网站指数避免下滑,持续提升。 (当更新量和频率大幅下降时,配额会下降,首先意味着爬取频率下降,导致索引量下降)
C、时效信息消失
D.部分区域出现不良信息
解决方案:剔除大量外部链接、恶意弹窗广告、非法敏感信息、专门针对搜索引擎作弊的内容等。
【犯规处罚算法】
解决方法:关注站长工具新闻和百度搜索动态。按照官方公告说明进行整站 信息 ,反馈,然后等待算法更新。
[特殊 URL 不受信任]
解决方案:自定义各种网址的索引查询规则;查找索引量减少的特殊 URL;检查此类 URL 的当前、前一天、本周和历史索引;发现可能存在未存储的数据,经过处理,加强该类型url与百度数据的沟通(有批量提交url、数据推送等方式)。
【网站不被搜索引擎信任】
A、涉嫌非法投票(链接厂等)
解决办法:珍惜自己页面的投票权,坚决不投劣质页面 优化排名 ,尽量减少本站的导出链接。
B.主题变化(比如从教育领域到医疗领域)
C,牵连
同一个ip下的非法网站很多,同域名所有者托管的大多数网站都受到处罚,情况恶劣等。
解决方法:留下坏邻居,获取搜索引擎各产品的相关反馈方式,请求解除禁令,等待正常索引恢复。
D.政策原因
如香港主机和国外主机网站可能因各种原因导致稳定性差
解决方案:国内主机备案,合法合规运营
3、网页模板相关
【主要内容区 蜘蛛 限制】
解决方案:取消登录查看信息的限制,让蜘蛛可以方便、自由地“采集”本站数据
[启用了对蜘蛛不友好的技术]
解决方案:对于需要被蜘蛛识别的内容,不要启用对蜘蛛不友好的技术来调用。
[响应式模板干扰蜘蛛识别页面类型(PC、移动)]
解决方法:提交具体的url对应关系(尽量);元标记手机版网址和适合浏览的设备;自适应;增强PC端和移动端不同模板的源标签区分,帮助百度识别页面类型
4、源码相关
【源码错误比较严重,如编码错误、标签使用错误等;源码改动严重,蜘蛛“收集”数据,重新观察分析; td(web page,)某类url下的变化,比如变化大,变化的页面量大,页面变化后会重复索引库的构建过程。如果页面质量不符合索引库标准,将从互联网上消失]
解决方案:验证源代码,准确的源代码是蜘蛛“收集”数据进行分析的基础;链接结构、url地址形式、页面主题、页面各个区域的HTML标签等,尽量保持变化前的情况;逐步替换TD(网页),根据页面主题和用户实际需求制定合理的TD,不欺骗、误导用户。
5、已经存入库的url改变了的状态
【声明,蜘蛛禁止爬行】
解决方法:查看百度搜索资源平台工具及爬取情况。
[url规则改变,无法访问原url]
解决方法:尤其是win服务器的数据迁移,可能会在大小写url的支持上有所变化 优化排名 ,以保证各种url规则不发生变化。 url必须重构时,做新旧重定向,站长工具提交修改要求。
[提示错误页面]
解决方法:由于误删,可以进行数据恢复,保持url对应的网页内容的更新和变化,增加爬取的频率。如果确定要删除,提交死链接,删除死链接,然后封禁。这种情况下不用担心指数下降。
[被黑]
解决办法:防止url非法跳转到;防止url对应的网页内容改变蜘蛛的内容,尤其是一些非法内容
6、DNS,服务器问题
[DNS 问题]
dns 不稳定; dns 不安全
解决方案:选择可靠的dns服务;沟通强调蜘蛛的稳定性;防止dns解析到异常ip;防止解析的网站ip频繁变化。防止dns管理漏洞,导致恶意分析;防止dns解析依赖于缺乏技术能力、管理规范、道德和法律约束的小代理等平台。
[服务器问题]
A,可访问性差
解决办法:尽量让目标区域内所有运营商的用户在3秒内打开网站,最好是1秒内;监控网站运行状态 seo信息 ,合理设置目标区域内所有运营商的监控节点和监控项目,监控频率
B、屏蔽百度ua或ip
解决方法:使用搜索资源平台工具——爬虫诊断,查看百度爬取网页的情况。
C、反刷压力值设置
解决方法:将解析到专用空间;如果有访问急剧增加的ip,检查是否是,然后判断是否禁止访问。
三、百度(收录)指数下降的常见原因——百度的原因
1、配额再分配
同类数据量接近索引分配总量,配额量重新分配。增加了就会减少。
解决方案:克服竞争产品,争取高分布。
2、数据异常错误
A,错误的惩罚
新算法是为了应对某种恶意行为而推出的,但由于蝴蝶效应,一些网站被错误惩罚,大量索引被清除。
最近网站的百度索引量和收录明显下降是怎么回事
网站网络索引量是流量的基础,索引量数据的每一个变动都拨动着站长敏感的神经,“索引量下降之后该如何着手分析”一直是各位讨论的热门话题,不管是论坛,贴吧,还是QQ群,提关于索引量问题的人都是挺多的,阿峰特意在网上搜集了这个史上最全的网站网络索引量下降的原因及解决方法,来源绝对可靠,希望有关网站索引量的问题到此打住,希望您在看了此篇文章以后,不会再有疑问。 一、网络索引下降分析简图 网络索引量 这张图上面已经清楚的罗列出来了导致网站网络索引量下降的原因了,主要有两方面的原因,一方面是网络自己的原因,比如常见的配额再分配原因,数据异常错误原因,地区性数据异常,接口调用数据错误、数据丢失、数据备份衍生异常等。 另一方面就是网站自身的原因导致了。 接下来先说说网站自身哪些原因会导致网络索引量下降。 二、导致网站网络索引量下降的网站方的原因 1、内容数据所在的网址url未规范统一 原因:自己站点url未规范统一,多域名都可以200状态正常访问网页内容;一域名下出现多种url形式可以访问相同内容,如大小写url、url规则变更等。 解决:选择主域名(或主url),其他域名下的所有url都301重定向到主域名(或主url),并站长工具提交域名改版(或目录url改版) 很多网站是动态静态路径相结合,首页的访问路径也不统一,通过域名能访问首页,域名+也是首页,域名+index/还是访问的首页,这就是问题了。 2、外部平台使用己站数据 原因:市场合作,站点数据调用到其他平台上;内容主动外发,推广人员完整转发自有内容到高质量平台——这两个原因都有可能导致搜索引擎收录了外部平台的内容而拒绝了原网站内容。 解决:使用站长平台链接提交工具的主动推送功能,及时提交网站新出现的链接,延迟将内容调用到其他平台的时间; 这个问题,简单的说就是seoer把自己的高质量原创内容当做外链发到了别的高权重网站,被先收录了,导致自己网站发布的却的不收录了。 阿峰还常被人问到发外链发自己网站的内容好不好,是不是等到收录再发,发了会不会被认为自己的站是抄袭的。 其实这个问题不必要纠结,就拿阿峰的博客来说吧。 技术性的文章我肯定是先发布自己博客,等到收录以后才回去发布到其它平台,但是活动性的内容,那就不用考虑着是不是首发了,活动信息本来就是需要更多的人看见的,目的是广而告之而不是排名。 延伸阅读:论坛签名还有用吗,是不是垃圾外链? 天天发外链有用吗 警惕垃圾外链导致网站降权排名下降 原因:被镜像,用户通过其他举办主体的域名或url直接可访问己方内容。 解决:关注域名解析安全和服务器安全;绑定唯一可解析的域名或唯一可访问的url;页面内容中链接使用绝对地址 3、站点受青睐度下降,这与网页内容相关 原因:内容质量度下降,就是说网站的内容太烂大街了。 解决:提高内容质量度,详见网络站长学院相关内容;杜绝简单拷贝,多做整合信息。 原因:更新量及频率下降,好久不更新了,索引下降。 解决:稳定的更新频率,视内容发展情况,扩充编辑团队,生产更多新内容,让网站索引避免下降,持续增加。 (当更新量及频率下降明显,那么配额就会下降,首先表现抓取频次下降,导致索引量下降) 原因:时效性信息消失。 解决:时效性的信息,大部分一般在数据库不会长期保留,所以需要持续挖掘新的时效信息点,整合相关内容。 这种情况对于新闻源网站应该是比较常见的,不过也没什么,已经失去时效性的内容留着也没用。 如果您做的事新闻源网站推荐您认真阅读这篇文章:2015年文章怎样才会被网络新闻源收录 原因:部分区域出现不良信息 解决:杜绝大量外链软文、恶劣弹窗广告、非法敏感类信息、专门针对搜索引擎作弊的内容等 4、触犯惩罚算法 解决:关注站长工具消息和网络网页搜索动态。 按官方公告说明来整改站点,并进行反馈,然后等待算法更新。 5、特型url不被信任 解决:定制各类url的索引查询规则;定位索引量下降的特型url;排查该类url当日、前一日、本周、历史索引情况;找出未被入库的数据可能存在的问题;处理完后,增强该类url与网络数据沟通(途径有sitemap、批量提交url、数据推送等)。 6、站点被搜索引擎信任度下降 原因:非法投票嫌疑(链接工厂等) 解决:珍惜自己页面的投票权,对于劣质网页坚决不投票,尽量减少站点的导出链接。 原因:主题变动(如从教育领域跨入医疗领域) 解决:将旧领域的网页进行死链处理后向网络进行提交,封禁相关旧url的被访问权,然后再上线新主题相关内容,加强对网络的数据提交。 原因:受牵连,相同ip下非法站点偏多,同一域名所有人举办的网站大都被惩罚且情况恶劣等。 解决:离开恶邻,获取搜索引擎的各产品的相关反馈方式,请求给予解禁,等待恢复正常索引。 原因:政策性原因,如香港主机、国外主机站点由于各种你懂的原因,稳定性可能较差。 解决:国内主机备案,合法符合政策经营 7、网页模板相关 原因:主体内容区域对蜘蛛的限制 解决:取消登陆查看信息等限制,让蜘蛛便捷畅快的“采集”到己站数据 原因:启用了对蜘蛛不友好的技术,比如全flash站点,过多使用js代码等 解决:对需要蜘蛛识别的内容,不要启用对蜘蛛不友好的技术来调用。 原因:响应式模板干扰蜘蛛识别页面类型(pc、移动) 解决:提交特定的url对应关系(尽量parrten级);meta标记移动版本url及适合浏览的设备;自主适配;增强pc、移动不同模板源码标签的区分度,帮助网络识别页面类型 8、源码相关 原因:源码错误较严重,如编码错误、标签使用错误等;源码改动严重,蜘蛛“采集”数据后重新观察分析;某类url下的TD(网页title、description)变化,如变化比例大、变化页面量大,页面进行更改后会重走建索引库流程,如果页面质量达不到建索引库标准会从线上消失 解决:校验源码,准确的源码是蜘蛛“采集”数据进行分析的基础;link内链结构、url地址形式、页面主题、页面各区域html标记等尽量维持改动前的情况;逐步、分期更换TD(网页title、description),结合页面主题、用户实际需求来制定合理的TD,不欺骗不误导用户。 9、已入库的url对蜘蛛状态有变化 原因:robots声明,禁止蜘蛛抓取 解决:查看网络站长工具robots及抓取情况。 原因:url规则变化,原有url无法访问。 解决:特别是linux和win服务器之间的数据迁移,可能会出现大小写url支持变化,确保各类url规则不变化。 url必须重构的时候,做好旧新url301重定向,站长工具提交改版需求。 原因:提示错误页面 解决:由于误删,则可以数据恢复,并维持url对应网页内容的更新变化,提高抓取频次。 如果确定要删除,那么提交死链,删除死链后,再robots禁止,这种情况的索引下降无需担忧。 原因:被入侵 解决:防止url对蜘蛛进行非法跳转操作;防止url对应的网页内容对蜘蛛出现内容大变化,特别是一些违法乱纪的内容 10、DNS问题 原因:DNS问题,dns不稳定;dns不安全。 解决:选择可靠的dns服务;沟通强调对蜘蛛的稳定性;防止dns解析到非正常ip;防止解析的网站ip频繁变动。 防止dns管理漏洞,导致被恶意解析;防止dns解析挂靠在小代理等技术能力、管理规范、道德法律约束都欠缺的平台上。 11、服务器问题 原因:可访问性差 解决:尽量让目标地区所有运营商来路的用户都能在3秒内打开网站,最佳1秒内;监控网站运行状态,合理设置目标地区的所有运营商监控节点及监控项目、监控频率 原因:屏蔽网络ua或ip 解决:多利用网络站长工具,查看网络抓取网页的情况,可见 原因:防刷压力值设定 解决:将蜘蛛解析到专用空间;如出现访问陡增的ip,查看是否为蜘蛛再确定是否禁止访问。 三、导致网络索引量下降的常见原因——网络方原因 原因:配额再分配,同类数据量接近索引分配总额,配额量再分配,有升的就会有降的。 解决:超过竞品,争取高额分配。 原因:数据异常错误,错误惩罚。 应对某类作恶行为而新算法上线,但由于蝴蝶效应,导致部分站点被错误惩罚而清除大量索引。 解决:反馈网络方,请求解除惩罚。 原因:地区性数据异常,部分地区数据抓取或查询异常,导致误判站点情况而清除相应索引数据或输出错误索引量,如网络dns系统升级事件。 解决:反馈网络方,由网络检查各地蜘蛛执行情况。 原因:接口调用数据错误、数据丢失、数据备份衍生异常。 解决:反馈网络方,由网络检查相关数据情况。