或者

网站不被搜索引擎收录的几大原因

作者:9527 浏览:234 发布时间:2017-12-26
分享 评论 0

  第一、网站文章的原创力度不够


  这是大多数网站存在的问题,大家都是进行伪原创来给自己的网站充实内容,互联网是一个信息的网络,如果你更新的文章都是已经存在于互联网中的,那么百度蜘蛛肯定不会喜欢,百度蜘蛛也需要新的东西来充实自己。


  第二、网站的域名权重比较低


  域名越老权重越高,这个可能绝大多数站长朋友都应该清楚,如果你的手中有一个N年的老域名,然后再用来做新站的时候适当的加上几个中等难度的关键词,那么对于网站自身的优化来说有很大的帮助。


  第三、网站自身的结构构架存在问


  网站自身的结构框架决定了搜索引擎收录网站的快慢和收录数量,这个在新闻源站点上要求的尤为明显,很多站点在申请百度新闻源站点时之所以失败就是网站自身的结构构架不行。


  第四、带有其他网站的网址链接


  现在百度已经对外链的打击程度非常严格了,以前有些站长喜欢在其他的站点更新文章时加上另一个网站的网址链接,以此来达到增加外链的目的,这个方法确实很不错,既能够更新文章,又能够增加网站的外链。但是自然百度对外链作弊的更新以后,本人发现只要是带有其他网站的网址链接的文章一般很难被收录


  第五、网站的内部链接要分布均匀


  一些网站堆砌关键词的现象非常严重,比如在自己的网站上给关键词加了非常多的链接,这个非常说有助于这个关键词的排名,但是却把其他的关键词给忽视了。


  第六、检查iis日志。


  通过iis日志的检查,可以很清楚的了解蜘蛛的行踪,它有没有来我hrbca.com们的网站以及什么时候来的,还有来的频繁程度如何。如果蜘蛛没有来,那网站自然是不会收录。


  第七、检查robots。


  如果说蜘蛛是正常的来到你的网站,那么你首先要看的就是你的robots.txt文件,看看是不是因为自己在修改robots的时候不小心,把原本需要正常收录的页面给禁止了,亦或者是不是因为自己禁止的页面把需要


  收录的页面的唯一入口或者主要入口也禁止了。


  第八、检查页面,


  要是蜘蛛来了,而且你的robots也和以前一样没有大的变动,结构和页面的入口也都没有什么大的变化,那问题就一定是出在页面上。文章页,你需要考虑自己的文章的质量,是不是采集的过多了?是不是文章的原创性不够等等,