或者

网站没有被收录的基础原因

作者:广西SEO团队 浏览:167 发布时间:2017-05-15
分享 评论 2

很多网站因为自己的误操作,给网站做了门槛。本来是想设成允许蜘蛛来的,却弄巧成拙设成阻止了,所以我们要来揭秘网站没有被收录的基础原因有哪些:


一、在robots.txt文件设置了屏蔽

如果在分析网站日志时发现蜘蛛每天都会在网站抓取,但是网站依然是收录不充分,我们都知道蜘蛛来网站抓取时,首先会检索网站是否存在robots文件,这时我们很有必要检测网站的robots文件,来查看网站是不是已经存在不需要抓取的页面了,看看文件中是否含有阻止网站中某部分内容,导致网站不能被充分的收录。对于新手站长不知道写的robots文件是否符合自己想要的结果,可以利用百度站长工具robots功能,检测robots文件写法是否正确。


二、robots meta标签设置禁止

网站页面上使用了 noindex标签是告诉蜘蛛不允许索引这个页面,我们更新的内容即使质量再高也不会被蜘蛛抓取。同时,nofollow标签告诉蜘蛛此页面上的链接不传递权重,如果网站上的页面链接都带有nofollow,那这就明显的告诉搜索引擎此页面没有任何价值。当然蜘蛛是不会来了。如果你的网站遇到不能被充分收录,检查下meta标签,是否存在错误的标签。


三、页面深度比较深,页面没有被访问过

对于一些大型的内容型网站,页面深度比较深的情况,我们可以完善网站的内链建设,把一些相关的页面通过内链的形式加在页面上,不要让网站的页面变成独立的页面,建立好导航和内链,或者给想要收录的页面增加外链,引导蜘蛛来抓取。提高页面在搜索引擎中的权重值。尽量不要使用nofollow标签、JS代码或者某些蜘蛛不能识别的转向等代码。


四、网站中大量的使用黑帽SEO优化页面被蜘蛛当做是作弊的内容

1、网站上如果长期使用隐藏文字在页面上进行关键词堆积,蜘蛛检索到网站上存在隐藏文字和链接,这时你的网站很有可能会被蜘蛛从索引中删除,不会再次出现在搜索页面中。


2、使用和背景一样颜色的文字,堆积大量的关键词,这种作弊也很容易被检测出来。


3、使用noscript标签,告诉浏览器当页面上有JS时,当浏览器关闭时,页面上该显示什样的内容,事实上是在noscript标签中堆积很多关键词,这种做法是相关有危险的,很容易就会导致内容被删除。


五、低质量内容被归为垃圾站点

不管是自身网站的重复内容,还是网站从外部获得的重复内容,蜘蛛都能一定程度的对其识别,对于重复的内容页面,蜘蛛不会继续放入自己的数据库,甚至会对一些低权重的网站,进行删除索引的操作。


在互联网垃圾泡沫的时代,要想真正的做到收录充分,挤在行业的前列,还是要坚持去做高质量的内容,这样才能长久在业界生存,网站权重才会越来越高。