或者

大型网站seo心得

作者:草根香蕉皮 浏览:144 发布时间:2018-02-07
分享 评论 0

在大型网站中SEO工作一些心得


1.流量基础框架


SEO流量=搜索纬度覆盖× 收录 × 排名 × 点击


2.详细工作内容


技术类、内容规划类、数据统计分析类


3.数据统计类


流量数据,Google Analytics监控近7日同比会话数据,百度统计辅助分析,频率:每日;


爬虫抓取数据,包括抓取总量、核心页面抓取量、非200状态码数量,利用python开发脚本,联结服务器日志数据,汇总为邮件形式发给SEOer,频率:每日;


各大站长平台数据,包括抓取频次、收录和索引、流量和关键词、移动适配、sitemap和主动提交等数据,频率:每周;


新内容收录数据,以site:域名+ title的形式,查询倒排索引量,需要python开发对应查询脚本,频率:每周查询前一周数据;


第三方平台数据,以5118、爱站为主,参考百度流量预估、关键词、权重等数据,也可以用于竞品网站分析,频率:每周;


4.技术类


针对收录:爬虫监控体系的建立;收录批量查询脚本开发;sitemap和主动推送部署;


针对流量:流量数据进行页面级分类,细化流量分布数据;


移动优化:移动适配正则表达式、相关meta声明代码部署;


其他技术:百度mip页面开发;阿拉丁合作xml;


提升页面相关性和内链数量:相关推荐板块开发;手工锚文本开发;


5.内容规划类


建立行业流量地图:按照同一维度确定词根>百度蜂巢>长尾词结构概况>输出脑图


找到可学习的SEO网站:某一内容领域5118关键词> top20子域名>爱站数据分析流量效率>排除通用站和阿拉丁合作>确定可学习网站


页面生成机制:词根>百度蜂巢>长尾词与词根相似度计算>高相关且有搜索量&高相关且无搜索量>资源分配不同>编辑产出内容(锁定keywords、title自拟)> 7日后监控流量数据>对应关键词排名数据(≥10,待定;<10,链接资源=搜索量* 100支持)


1>利用各种渠道获得一批词根;


2>词根通过百度蜂巢、5118等获得长尾词和对应搜素量数据;


3>筛选出与词根相关度高且有搜索量的关键词,作为构建内容的核心词;


4>编辑根据核心词产出内容,建立关键词与URL一一对应关系;


5>在发布内容7天以后,查询关键词和URL的排名情况,若排名进入首页则不进行处理,排名未进入首页的关键词给予资源倾斜,建设 搜索量*100的链接锚文本传递给对应链接,继续观察排名数据;


6>超过发布时间2个月的内容仍然无法排名首页的,删除对应文章。


页面生成机制执行:


大量关键词>搜索量大于50的关键词>批量查询排名>排名分类(top1,3,5,10,30,其他)>按照排名倒序作为更新内容的紧急次序>排名不好的搜索量大于50的关键词进行2步走>①进行二次关键词挖掘 ②对应关键词进入手工位>去重&清洗不相关词>整理出需要更新的内容方向>监控现有排名和更新后排名