提问者:云客网官方问答 | 分类:网站诊断 | 浏览24次 | 悬赏分:0积分 2017-03-06 11:05:23
手上有个网站 SEO没做好反而降权了 想利用来做分析积累点经验 要怎样分析呢 哪些是重点最佳答案
我要回答
杰克
站内收录,站外的收录。 总结一下:通过基础数据主要是分析这个网站优化的好不好。 第二步:我们需要分析网站的定位和网站的盈利方式 知道了定位基本上可以确定网站的盈利模式,这个网站主要是通过给高端别墅用户提供别墅装修 第三步:我们根据定位来分析网站的关键词选取的是否合理,布局的是否合理,关键词密度是否合理 网站关键词选择的不合理,关键词的排名不好,找一些竞争对手的网站对比一下。 导航的位置可以适当的添加一些核心关键词、网站有没有合理布局次导航关键词 次导航的关键词可以适当的拓展下,让词跟网站的定位匹配度更高一点 关键词密度不合理 如果你觉得别人网站的关键词选择的不合理,那么你可以找竞争对手的网站的关键词截图给它看看。 第四步:分析网站的三大标签(tdk) 分析分为主页 内页来分析,每一个页面要有不同的三大标签 第五步:我们需要分析网站的结构 网站有没有合理使用逻辑结构和物理结构 物理结构指的是网站的网址层级 扁平的树状结构 逻辑结构强调的是用户需要点击多少次才能到达所到的页面,我们可以做站点地图,xml html TXT 这样的站点地图一直没更新,建议要及时更新站点地图。 总结:结构:要看具体是什么样的网站,如果是中小型网站一般是三个左右的层级深度,如果是大型站点,一般是5个层级左右深度,或者建议使用子域名来做。 第六步:我们需要分析网站的url优化 首先分析网站有没有合理使用首选域,所谓的首选域指的是搜索引擎编入到索引的域名,用来收录做排名的域名,首选域是通过301来实现的。 url中我们还需要分析网址的路径是否采用的是绝对路径 第一个是一个完整的地址,可以明确首选域,其次绝对地址,别人复制你的网站的链接是不是也可以打开的。 其次是绝对路径可以避免网站被恶意镜像。 url中我们还需要分析网址的伪静态处理,对于动态网址建议做一个伪静态的处理。 其次在url中分析 死链接 需要查看网站中有没有存在死链接 对于存在死链接,最好的方式是找到死链接对于有用的链接,修复过来,没有用的直接删掉或者给网站做一个404页面来引导用户访问你的网站。 其次url中我们还需要注意网址中尽量带上你网站内容名称的关键词的拼音或者英文字母 第七步、我们还需要分析站内的图片和视频文件有没有合理添加属性 图片文件,我们建议添加alt属性,视频文件我们建议添加title属性,其次网站中的图片不建议超过100kb,视频文件采用外部调用的方式来加载视频。 面包屑导航使用 1、 什么叫做面包屑导航 2、 有什么作用 面包屑导航是我们做seo优化常用的一种内部链接优化的一种手段,通过这个导航的链接可以让用户能快速知道用户所在的位置,能快速返回你的网站的页面,有效的增加网站的pv的数量 ,其次也是可以减少用户点击次数。利于网站的逻辑结构的优化。同时也是可以增加页面关键词的密度。 3、 面包屑导航如何添加 Tags标签的调用 这个tag标签相当页面的关键词,布局tag标签作用是可以增加页面的关键词的密度,其次这个tag标签可以合理布局好网站的内部链接,能很好的引导蜘蛛抓取到你网站更多的内容页面 一般我们建议可以把这个标签调用显示在主页,有可以调用显示在内容页面。 TAG标签:{dede:tag row='30' sort='new' getall='0'} [field:tag /]{/dede:tag} 就是调用tag标签的代码 如果你的网站根目录下面没有tags.php这个文件,那么大家注意去下载一个跟你网站模板编码格式一致的文件上传到网站的根目录里面。 如果出来上面的截图的问题,那么我们需要查看网站的模板文件 如果没有,方法一样,在下载一个跟你们网站编码格式一样的文件上传到模板的位置。 这个是默认的模板,里面没有调用自己网站的样式文件才会出现这样的结果 如果你想让它跟你的网站风格一致,那么需要修改这个模板 其实这个模板页面只是给蜘蛛抓取用的,一般用户是看不到这个页面的 。 站内的robots.txt文件优化 1、 什么叫做robots文件协议 我们说这个robots协议是你的网站跟各大搜索引擎之间沟通的协议方法,我们可以通过这个文件告诉各大搜索引擎的蜘蛛程序,网站哪些页面可以抓取,哪些页面不能抓取。 举个例子 假如网站有一个100页面,正常情况下网站有100个链接,那么是不是100个链接都能用来参与排名呢 一个网站不是所有的链接所对应的页面都对排名有价值的,那么对于排名没有价值的页面我们就可以使用这个文件给屏蔽掉,从而能提高蜘蛛抓取你网页的效率。 强调一下,这个文件只是一个协议,并不是一个强制的命令。 总结下:对于排名有价值的页面值得是网站中有实际内容的页面。 其次需要注意这个文件存放的地方 记住这个文件必须要放在网站的根目录里面,这个而文件的名称全称是robots.txt 文件名必须要叫robots.txt而且这个文件名必须要小写。搜索引擎蜘蛛在抓取你的网站的时候首先就会读取这个文件,如果你的网站有这个文件,那么搜索引擎的蜘蛛则会根据文件上面指定内容来抓取,如果没有这个文件,那么表面你的网站所有内容都可以抓取。 下面来访问这个文件看看这个文件长什么样 现在打开的是织梦自带的文件是不合理的,达不到我们优化的需求,所以我们接下来就来优化这个文件。 robots文件的书写规则 User-agent: 蜘蛛名称 *是一个通配符,代表的意思是指的是所有的搜索引擎蜘蛛的名称。 对于普通的企业站点在书写这个文件的时候我们一般都是使用*来代替所有的搜索引擎蜘蛛。 Disallow: 禁止抓取的内容的路径 Allow: 允许抓取的内容路径 具体结合一些通配符的用法 User-agent:* Disallow: /admin 表明禁止抓取收录admin这个文件 Disallow: /admin/ 表明是禁止抓取admin目录下面的所有的文件 Disallow: /a/*.htm 表明是禁止抓取a目录下面所有以.htm结尾的网页文件 http://www.xxx.com/a/1.html http://www.xxx.com/a/2.htm http://www.xxx.com/a/3.htm http://www.xxx.com/a/4.htm Disallow: /? 表明是禁止抓取网站中所有的动态网址也就是网址中包含?的,记住千万不在robots文件里面直接写上这条记录,尤其你的网站是动态的。很有可能会导致你的网站不被收录 我们建议大家如果你想禁止单个的动态网址 Disallow:/Show.asp?id=870 Disallow: /.jpg$ 表明禁止抓取网站中所有以jpg结尾的图片格式 Disallow: /*.jpg 不建议大家这么写 *后面一般跟的是网页文件 $ 后面一般跟上的是图片或者视频文件 Disallow:/ b/abc.html 禁止抓取抓取b目录下面的abc文件。这种方式是最具体的方式。 如何结合自己的网站来优化这个文件 首先你要想写好这个文件,那么必须要知道你网站的跟目录下面所有的文件是用来干什么的。 Disallow: /dede Disallow: /member Disallow: /data Disallow: /404.htm Disallow: /templets 除了以上是一样的,我们还需要屏蔽自己的css文件js文件以及结合你自己的网站,你去找找哪些文件对于排名没有用,都可以直接屏蔽掉,以及网站的死链接也可以使用robots文件屏蔽掉。 我们还可以在这个robots文件中写一个允许的强调记录,我们要允许自己的站点地图被抓取。 Allow:/sitemap.html Sitemap:/sitemap.html 这两种写法是一样的,都是表面允许抓取站点地图的意思。 除了robots.txt可以禁止蜘蛛抓取你的网页的文件 还有一种是链接的nofollow属性这个属性是用来告诉搜索引擎不要跟踪这个链接的。 百度 网站日志分析 1、 什么叫做网站日志? 所谓网站日志指的是服务器日志,也叫错误日志,这个日志记录你网站服务器的请求记录。 通过这个日志我们可以看到网站哪些文件被抓取了,什么时间被抓取的,以及抓取是否成功。 我们需要打开主机的控制面板里面一般会有一个logs结尾的文件,那么我们的网站日志就放在那个文件夹里面。 一般日志不需要手动来分析的,我们可以直接使用光年日志分析工具 我们在主机的控制面板里面下载某一天的日志,我们利用光年软件来分析这个日志。 概要分析是可以查看到有没有蜘蛛来访到你的网站的 目录抓取 目录抓取是可以通过它看到蜘蛛抓取了你网站的哪些目录,抓取了的目录,首先你要去看下,这个目录是不是放了很多的内容文件,这个目录对于排名来说有没有价值。没有价值的我们使用robots.txt屏蔽掉,不让它在抓取,分析日志需要分析三到五天的日志,综合对比下,看看蜘蛛这几天重点抓取了你网站的哪些目录 www.xxx.com/a www.xxx.com/b www.xxx.com/c 这三天蜘蛛都抓取了我的a目录,下次更新内容的时候我们建议大家可以适当在a目录里面多更新一些内容。假如b目录和c目录抓取比较少 ,看看是不是因为自己更新内容的力度不高,或者你需要分析看看你更新的内容是不是大量抄袭的
g***8
下个日志分析软件,分析分析蜘蛛的动向。2.看看网站结构、代码有没有要改进的。3.分析外链