或者

robots的主要作用

作者:小燕子工作室 浏览:111 发布时间:2017-06-23
分享 评论 0

限制搜索引擎不能抓取的部分,比如一些不想被用户看到的,一些无意义页面,垃圾页面,空白页面等等之类的,都可以直接屏蔽掉。

User-agent: * Disallow: /wp-* Disallow: /plugins/ Disallow: /themes/ Disallow: /?s=*上面的代码就是兴哥博客的robots设定User-agent: *代表所有搜索引擎Disallow: /wp-*告诉搜素引擎不要抓取登录页面文件,这里面的*是一个通配符,因为后台登录页面比较重要,所以不想让大家知道,所以用个通配符设定就行了。Disallow: /plugins/ Disallow: /themes/禁止抓取的目录Disallow: /?s=*

禁止抓取搜索路径

很简单

说真的,seo经过多年的发展,搞来搞去就这么点东西,有些时候不要太纠结细节的东西,特别是对于一个新手来说,抓取主要的优化手段,狠狠的去执行,排名上升肯定是没有问题的,当然前提是你的文章质量够高。

只要大方向优化正确了,细节不在是问题,或者当你想提升自己的seo技术的时候,在去琢磨这些细节优化要点就可以了。

在这里在说一下,seo优化重点不是技术,而是优化思路