在大型网站中SEO工作一些心得
1.流量基础框架
SEO流量=搜索纬度覆盖× 收录 × 排名 × 点击
2.详细工作内容
技术类、内容规划类、数据统计分析类
3.数据统计类
流量数据,Google Analytics监控近7日同比会话数据,百度统计辅助分析,频率:每日;
爬虫抓取数据,包括抓取总量、核心页面抓取量、非200状态码数量,利用python开发脚本,联结服务器日志数据,汇总为邮件形式发给SEOer,频率:每日;
各大站长平台数据,包括抓取频次、收录和索引、流量和关键词、移动适配、sitemap和主动提交等数据,频率:每周;
新内容收录数据,以site:域名+ title的形式,查询倒排索引量,需要python开发对应查询脚本,频率:每周查询前一周数据;
第三方平台数据,以5118、爱站为主,参考百度流量预估、关键词、权重等数据,也可以用于竞品网站分析,频率:每周;
4.技术类
针对收录:爬虫监控体系的建立;收录批量查询脚本开发;sitemap和主动推送部署;
针对流量:流量数据进行页面级分类,细化流量分布数据;
移动优化:移动适配正则表达式、相关meta声明代码部署;
其他技术:百度mip页面开发;阿拉丁合作xml;
提升页面相关性和内链数量:相关推荐板块开发;手工锚文本开发;
5.内容规划类
建立行业流量地图:按照同一维度确定词根>百度蜂巢>长尾词结构概况>输出脑图
找到可学习的SEO网站:某一内容领域5118关键词> top20子域名>爱站数据分析流量效率>排除通用站和阿拉丁合作>确定可学习网站
页面生成机制:词根>百度蜂巢>长尾词与词根相似度计算>高相关且有搜索量&高相关且无搜索量>资源分配不同>编辑产出内容(锁定keywords、title自拟)> 7日后监控流量数据>对应关键词排名数据(≥10,待定;<10,链接资源=搜索量* 100支持)
1>利用各种渠道获得一批词根;
2>词根通过百度蜂巢、5118等获得长尾词和对应搜素量数据;
3>筛选出与词根相关度高且有搜索量的关键词,作为构建内容的核心词;
4>编辑根据核心词产出内容,建立关键词与URL一一对应关系;
5>在发布内容7天以后,查询关键词和URL的排名情况,若排名进入首页则不进行处理,排名未进入首页的关键词给予资源倾斜,建设 搜索量*100的链接锚文本传递给对应链接,继续观察排名数据;
6>超过发布时间2个月的内容仍然无法排名首页的,删除对应文章。
页面生成机制执行:
大量关键词>搜索量大于50的关键词>批量查询排名>排名分类(top1,3,5,10,30,其他)>按照排名倒序作为更新内容的紧急次序>排名不好的搜索量大于50的关键词进行2步走>①进行二次关键词挖掘 ②对应关键词进入手工位>去重&清洗不相关词>整理出需要更新的内容方向>监控现有排名和更新后排名
网友评论