首页 > 优化技术 > 正文

网站长时间未被收录的原因分析

  1. 网站域名曾存不良记录,购买前应核实域名是否曾被注册使用...

  2. 网站服务器空间不稳定,不稳定因素包括虚拟主机IP被屏蔽、服务器频繁故障...

  3. robots协议文件配置失误,部分新手对robots协议理解不足,导致搜索引擎被误禁...

  4. 网站频繁改版,上线后应避免频繁改版,百度最不推荐的操作是更换域名、更换空间。

新网站长期不被收录,如何解决?

首先、分析网站日志,检查蜘蛛是否爬取过

作为站长,必须掌握网站日志分析技巧,日志中能揭示一些表面看不到的问题。具体如何分析网站日志,可参考小编之前撰写的《SEO网站优化每日必做事项:网站日志分析》。

1)、若未被收录的页面未被蜘蛛爬取

页面未被Baiduspider爬取,可以适当增加外链引导蜘蛛爬取,或向搜索引擎提交该页面。例如,每日吐槽图示页面已很久未被百度收录,可以采取以下措施:

2)、若页面已被Baiduspider爬取过

页面被爬取但仍未被收录,可能存在以下因素:

1、第一次被Baiduspider爬取,从百度综合算法来看,该页面价值性极低,需评估是否创建索引。

2、第二次被Baiduspider爬取,页面始终未有任何变动,决定暂停分析。

3、第三次被Baiduspider爬取,页面仍无变动,且长时间未出现其他附加价值(附加价值:评论、分享、转发等),决定不予收录。

Baiduspider也很忙碌,不会天天爬取未收录的页面,因此,当页面长时间不被百度收录时,应适当增加页面附加价值或对页面进行修改。可以添加图片、视频或内容,或重新编辑标题。总之,让Baiduspider再次爬取时,返回的状态码不是无变化的状态,这样页面被收录的几率将大大提高。

其次、检查robots设置是否错误,主动屏蔽Baiduspider

Robots设置同样重要,很多人可能还不了解。建议到百度站长工具资讯中查看详细教程,这里不再赘述。若robots设置存在问题,自行纠正后,在百度站长工具后台更新robots,以便百度蜘蛛重新更改状态。

第三、页面是否存在敏感词

如今,越来越多的词对搜索引擎来说都有一定敏感性,敏感词可能导致页面不被收录,甚至导致网站被降权或被K。因此,站长们在建设内容时要注意避免在文中出现敏感词。

第四、页面内容是否为采集

百度曾表示,数据库中肯定存在完全重复的内容,但有一定限制。例如,一篇文章最多被收录20篇,当已被收录20篇时,无论是转载还是更新,都不会被收录。

希望对您有所帮助,如有其他网络问题,欢迎咨询。

敬请采纳。

以上所转载内容均来自于网络,不为其真实性负责,只为传播网络信息为目的,非商业用途,如有异议请及时联系btr2020@163.com,本人将予以删除。

猜你喜欢
文章评论已关闭!
picture loss