分类目录归档:SEO

第一阶段的小目标基本实现了….

在之前的一篇文章里面,大约是6 月 28 日吧.当时体检网在 30,体检这个词在 60 了

后来开始继续优化,在这篇文章里面,体检网已经上升到首页了

并且介绍了这中间做的不断的复盘和不断的调整的计划…整个站,从上线初,发给别人看,评价都说技术真烂,细节做得很差,到现在慢慢完善.

虽然现在问题还是一大堆,不过也在不断的解决中了,网站不断的优化和迭代的过程中,体检网今天终于上了第一:

虽然后期可能会波动,但是毕竟还是第一次上的一次,体检这个词也到了第八了…然后移动端的排名:

不过整体的移动端的排名还是非常差,接下去的重点是需要把移动端的给突破一下….

关于网站的收录:

也达到了 4.4 万了,算是一个小阶段的目标是完成了,从收录量,核心词排名,长尾词,以及爱站权重,都算比较如期的完成了目标了…

现阶段的重点,除了继续优化这个站,比如做做 mip 站,还有一些站内的细节 比如上连锁机构聚合 ( 这段时间整太多聚合了,连文章都是聚合出来 )….

剩下的基本的重点会在站群了,毕竟这边丢了快 100 个站… ( 体检的和非体检的 ) 都需要优化…..没整出一套系统的话,这问题估计是解决不了…

盘点一下 tijian8.com的 seo 情况

这个站上线至今,基本的进展也是有按照目标来前进,甚至还是超出预期的部分

记得这个站上线的时候(应该是 5 月份 ),我发给我朋友看,他说我们的技术有点烂….现在想想确实是,就 8 月份开始出的整改方案就这么多…

这中间还未考虑过之前出的一些方案 ( 5 月-8月),整个站的进度还是非常符合敏捷的方式在运行的,首先我们的异地协同也用到看板,比如:

通过这样的方式,结合钉钉的协同沟通,以及日报提交,加上周会,基本上可以解决大部分协同问题…. 当然最好的方式,是每天可以再固定的时间,几个人用电话会议的方式,10 分钟内,沟通一下 3 个问题:

  1. 昨天对目标的推进,做了什么事情
  2. 今天打算对目标的贡献做什么?
  3. 有没有遇到什么问题

这就是敏捷三问….

截止今天的收录量也有 3.6 万了,但是这中间的一些黑科技还是在朋友的指点下完成的….

当然接下去的整改还是蛮多了,比如这个聚合页面问题….这里关于聚合页面的,我说下我的理解,其实非常简单,就是给你一些材料,酱油醋,青菜萝卜….你给我炒出不同的菜出来….

所以聚合页的核心,其实就是数据….数据就是材料,材料越多可以炒的菜越多,你没材料,就一颗蛋一碗饭,再牛的大厨也只能炒出蛋炒饭….或是做一道饭,一盘蛋….

目前体检网的页面量级应该在 100 万左右 ( 上次做 sitemap 统计出来 ),如果把这 100 万页面照顾好,收录量做到 50 万,我觉得也算是一个看起来还可以的大战了…

爱站的权重:

其实这个权重一直对我来说不重要,但是对友情链接的交换及其重要!! 特别是最近,在换友情链接的时候,经常遇到用权重来欺骗友情链接的….

所以有的时候,真正看一个站的质量好坏,其实不能看权重,但是不权重又有点无可奈何….看也不行,不看也不行……

从上面的数据上来看,移动端的权重不行,接下去的重点,就是想办法把移动端操作上去,如果匹配过来了,这个站基本算是已经步入正轨了….

但是其实还没有,除了前端的 seo ,这个站可优化的用户体验细节也是太多了……

这里不一一列举了

写到这里,其实可以看出来,懂 seo 的人在市面上一抓一大把,你要说看了几篇夫唯的文章,也算是懂 seo

懂理论的也是一抓一大把…

但是真正去落地的,去思考,想办法做好的,这种其实并不多,不要看seo群里各个是大师….其实这些人也是嘴上说说而已…

上次发了一个几天上权8 的站到群里,很多人都说这个很简单,无非就是泛站+内容组合…也有很多人说这个没用,做的一些什么新闻词….甚至还有人问我,做了多久的 seo ? 这东西分析不出来… 这些人因为太自满,所以错过了一个本来很好的东西….

这些嘴炮大师,我当时被气的….一个站几天百万收录,他们能做出来?他们没有一个人做过~~~ 但是在群里每个人都把自己装得很懂…

SEO 就是这么一个神奇的东西,

从一开始入门我什么都不知道->然后到我什么都知道(初学者)->然后到现在,我可以说什么都不知道 因为我知道没有巅峰…

至今我觉得在这个领域,我的水平应该是属于中等的,可以说刚入门的那种,这个池子水很深,很多东西你都没见过….而且最要命的是,你连自己什么东西都没见过都不知道~~~~

不忘初心 ( 不要忘记时刻保持一个初学者的心 )

每时每刻,用这个提醒一下自己

这段时间最大的收获就是不断的复盘!

我觉得今年应该是我最努力的一年,也可以说最有成就的一年.

以前我做事情,从来都是有始无终的

什么是有始无终?就是做一个事情,只是为了做一个事情而已,而没有把他优化到完美的地步

但是这三个月的时间里,我真正的把一件事,通过不断的总结,不断的优化,不断的尝试..最终做出了效果….

其实很欣慰,虽然这个最终的效果,和最终版还是有一定的距离,但是已经初见 成效了…
比如,体检网这个词,这段时间已经优化到首页了…. ( 虽然有的地区还是不一样的排名 )

为什么要优化这样一个没用的词?

其实懂 seo 的人应该知道,这个词产生不了很大的价值,但是这个词,对于我们的研究成果,其实有着很大的帮助!

因为这个词具有代表性,比如

这是一个有那么一点的指数的词,如果这个词可以搞上去 ( 实际花了快 20 天的时间)

那么其他的词理论上来讲问题不大…

每天的复盘很有帮助

这段时间,不断的复盘,不断的总结,我发现,确实帮助非常大…有的时候,甚至会把 2 个月前的东西和经验翻出来看…多会有很不错的收获

孔子说,温故而知新可以为师矣…..,现在觉得非常受益…

下一个阶段,善检网的 SEO 主要阵地是佛山….而且,主要的词就是 ( 佛山体检和佛山美年 )

对了,顺便说下,现在研究的站群程序已经有了初步的效果…

这个站群程序出来的话,管理 500 个站应该问题不大…

我很有信心,按照现在的工作方法,可以起到很好的效果

感觉整理词库都是在瞎折腾….

其实可以直接用竞价的那份关键词列表就可以当做词库了,多好,又有关键词,又有着陆页…

只是有一个不好的地方,就是关键词有很的是重复,但是这个其实不影响大局观,都是可以操作的….

其实这个就是体检的词库,这个才是最标准的,然后如果竞价到时候有更新的话,定期去更新一下这个词库就可以了…..

上次提到的竞价对手分析,最标准的应该是建立在这个词库上进行计算,而不是 30 家医院, 感觉这个并不是很准,并且 30 家医院的行业格局有限…..

不过如果全部操作的话 ,感觉又有点乱,到时候会失去重点…

不过 seo 和其他的又不太一样…

好像你想做的词,又不一定能按照你想要的收录,没收录你就不好操作…. 所以直接干整站会比较简单,而且粗暴…

现在唯一需要整理的是,竞价的词库,如何和 SEO 进行很好的同步?

关于tijian8.com 的收录新增方案

现在这个站的收录量速度实在有点堪忧,特别是移动端的,整站到现在的收录量才 1000 多…

目前打算做一些调整,看看这段时间的收录量会不会有所好转

目前的收率很低,今天把需要操作的重点 url 整理出来,大约有 3000 条所有 ( 如果分开移动和 pc 就是 6000 条 )

大概的效果是这样的:

然后每个页面都去查一下收录 ( 移动端加上 m. PC 端加上www. 最后看到是这样的:

这些页面的收录率现在极低,需要做一个调整,所以会有后面的熊站号和站长提交的标识,那么这就是我要做的第一步:

1. 利用天级和周级的提交

主要是利用熊掌号后台的提交 ( 主要移动端 ) , 站长工具,的 PC 端,大概是这个样子的…

整体的思路是 : 抓取所有未收录的页面 ,批量查收录, 区分 pc 和移动端,然后每天自动提交这些 url ( 不重复 ) , 把天级的 url , 每天进行提交…提交完以后在 Excel 做好备注 ) 熊掌号代表移动,站长代表 PC )

然后可以做第二步 :

2. 利用未收录 sitemap,引外链

大体的思路,就是获取到平台所有主要页面的 url ( 比如 城市主页,城市列表页,机构主页,机构列表页,… , 以及部分简单的筛选页 )

然后把这些页面做成 1-2 张 html 的 sitemap 放在全站的底部,再把这条 url 去做一些外链,引导蜘蛛来爬这个页面…

这样蜘蛛的爬取量肯定会上升…这招我屡试不爽…

3. 构建词库,提升整体权重

每一条 url,需要拓展 5-20 个词库,比如这样:

然后写一个程序,把这些 url 和刚那份 Excel 做好匹配,并且标注好,比如

这样构建好整个流程以后,可以干什么?

  1. 如果有新增 url ( 比如新增套餐,新增专题页 ) 等,我只要扔到这份 Excel 里面
  2. 然后会进行自动收录查询,自动熊掌号提交
  3. 定期会根据未收录的 url,进行自动的创建sitemap.html,然后发给技术去更新 ( 我不是技术吗? ),并且做引外链措施
  4. 每天关注,新增有收录,但是未加词库url,有没有添加到词库 ( 或是也可以自动添加到词库 )
  5. 词库自动做一些优化处理 , 类似像爱站那样,定期更新效果
  6. 循环以上 1-5 步…..

这个词库可以做到多大?

就体检网这个项目,我觉得大约的词库量在 5 万左右….. ( 麻痹,感觉有点累 )

不过现在操作的长尾词居多 ( 以后做的应该重点全部放在大词 ) 现在做长尾的目的是为了带大词

最后说下 刚看了下 排行榜 , 现在的分数大概如下 :

和中康的差距目前缩小在 16 倍左右 ( 词库的覆盖量 )

对比一下之前的 ( 只有 4.85 分,覆盖量 15 个词, 现在 10分,覆盖量 106 个词了 )

不过大约也是有一个月的时间了,这个增速其实是非常慢的,因为当时没有大规模的测试,最后再上一张 5118 的权重图:

我有一种预感,这个曲线,在未来的一个月会很好看…..而且有极大的可能会直接飙到权重 3 以上…..

好的计划是不断的在调整的….

以前有段时间,总感觉实现规划好没什么用,因为在执行的过程中,大部分的计划都是要推翻的!我一直不明白为什么会这样

明明安排了,也分解了,但是在执行中,总不能按照之前的分解的进度去执行,然后整个计划就全部推翻,所以也就有了 “计划无用论…”

但是这段时间,看了一本关于用印象笔记来做任务管理的书籍, 他里面提到了一个很关键的东西,就是成果管理

一般的任务管理体系是这样的:

这种体系有个很大的弊端, 就是把任务分解了以后,然后有大量的行动,而大部分的任务管理软件,比如 Todoist,或是 Omnifocus, 会让你每天看到大量的行动….

但是每天让你看到这些行动,是不助于你完成任务的! 因为你根本看不到全局…

所以,你肯定会挑选一些你想做的,或是一些简单的行动,开始做…..

最后就会发现,行动做了一大堆,但是任务没完成一个…. 是不是有这样的感觉?这个弊端,会让你发现,每天好像很忙….但是好像又没完成什么事情?

所以,基本上所有的任务管理,都是在做行动管理,而不是任务管理,或是换一种说法,大部分人的把任务管理软件用错了! 因为大部分人,没分清楚,什么是任务,什么是行动!

怎么界定任务和行动?

其实很简单,任务,在我眼中的定义,就是一个可以产生具体成果的东西,什么是具体成果?

  1. 给某某打个电话,与 xxx 沟通,这些都不叫成果,成果就是,把合同签下来,这就是成果
  2. 比如购买家具的项目中,网上挑选冰箱,并下单,这也不叫成果,成果是,冰箱到家,并且可以用起来 ( 比如你有可能会退货 )

很多人会说,这不等于白说,这不就任务分解吗?

没错,这些道理大家都懂,但是任务分解完了以后,会变成什么?你会看到一堆的行动清单,比如

  1. 给 xxx 打电话
  2. 到网上挑选冰箱
  3. …..
  4. ….

有十个行动,然后很可能你会挨个去做, 最后你会发现,没有一个完成,冰箱订购了,然后没有后续,给 xxx 打电话,就没继续跟进合同的事情…

不要觉得这没什么,大部分的人会犯错…而且这样的错误非常普遍…不信你们公司在开一次周会,你会发现,大部分人回报的全部是事项…..很少有人会汇报成果…

用OKR来管理任务

最好的任务管理体系,我觉得就是 OKR,可以做到很好的以少驭多的效果,比如:

每天的任务,通过看这个整体的看板,然后再点击下去,继续看到具体的任务

这份任务,是有一个具体的成果,以及对应的细项,但是这样和普通的任务管理最大的区别在于 : 每次你都能看到任务具体的成果以及意义!甚至更重要的,任务的上下文! 很多任务管理软件一个很蛋疼的东西,就是完成了任务,就不见了 ( 但是 Omnifocus 可以通过设置来解决这个任务 )


这样,的效果,可以说就像开车一样,看下全局->关注一下细节,然后在再缩放回全局,这样一来一回,不断的切换,会保证你始终行驶在一条路上….,而且每天的路线可以不断的调整…


这是从一个比较简单的任务管理体系入手,我执行10多天下来,感觉良好!正在摸索一套流程….

这种 OKR 我们做很多,但是区别于任务管理最大的区别在于,这份 OKR 我每天上班都要看! 这相当于我的一张导航图,把视角放到的导航图,这里面的任务,从我定下来 ( 一周前,到现在,做了 5 次的调整 )

“体检” ,”体检网”,排名已经开始动了…

今天无意看了一下排名,发现 www.tijian8.com 这个站的,体检,和体检网,已经有初步有排名…

虽然,这个站还有很多很明显的噪点,比如

  1. GIZP 无压缩 / CDN 加速未设置
  2. 页面打开速度过慢
  3. 首页进去看上去就像一个单页,起不到倒流的作用
  4. 文章页的体验太差…

但是这些还好,我更关注的是我们要的页面被收录了,然后这些都还没做,都有一个效果,如果做了,效果理论上来不是应该更好!?

比如这个,启动一下压缩,应该就可以起到很明显的效果,但是为什么提了要求没做,咋也不敢问…..

其实除了这些,还有很多词排名是有动静了…,只是这些都是长尾词就是….,具体流量多少,我也就不公布了, 到时候再揭晓

如何提取指定的百度收录URL?

现在还在开会,ㄟ( ▔, ▔ )ㄏ… 更新一篇关于 SEO 技巧类的文章…

问题 : 如何提取 www.tijian8.com 这个域名下所有的有收录的套餐列表页 ?

比如 : https://www.tijian8.com/0755/pl 所有这样类似的页?

这里有有两个思路:

正向 : 批量采集百度收录的 URL,再解密 ( 这个很简单 ) 然后根据正则来筛选出有特征的 url
逆向 : 把所有的 URL 整理出来,然后批量遍历去查询百度收录,然后在过滤

但是其实除了这个还有一个更高快捷的方法,就是

直接输入 : site:tijian8.com intitle:体检中心 多少钱 -套餐项目

然后你就看到如下的画面:


那么提取这些 URL 有什么用?

当然很有用, 这些收录的 url 你可以提取出来 然后根据规则 把这个标题拆分出来,比如这个标题,可以这样做:

[北京万和医院体检中心] 多少钱 在线预约电话-善检网

提取出这家医院的主词 比如 : 北京万和医院 , 然后通过这个标题,再组合出词库

那么有了词库和 URL 能干什么? 给几个线索….

  1. 这条URL 百度有收录
  2. 所以这条 URL 组合出来的词都会有搜索结果
  3. 所以……

这个会比自己构建词库,然后去操作关键词会更高效

比如之前的这篇文章的这种方法,操作了以后就会发现,很多想要的词,都没有收录!!!

但是通过这个方式,可以快速的第一时间的获取到可以操作排名的 URL!! (结合程序甚至可以做到实时 )

tijian8.com-套餐简介的修改方式

先了解一下什么是消噪

在做 SEO 的时候,页面的相似度对搜索引擎排名非常重要,因为搜索引擎会有一个消噪的算法,这个通俗一点的讲,就是你长的一样的地方,我给你过滤掉,我对你的判断只会判断你有特点的地方…

就好比,我们常规的是怎么辨别人和人之间的区别 ? 肯定是就是通过特点来判断的,如果两个人长得一模一样 ,比如双胞胎,你需要辨别出来也是辨别他不一样的地方…..要不然怎么分辨?连分辨都分辨不出来,更别说排序了….

那么,知道了这个道理,其他的 SEO 问题就很容易理解了,比如:

  1. 为什么很多人会把文章页面的其他板块全部去掉?只留一个文章主题板块
  2. 为什么首页有一些地方会用 js 调用 ? 有些地方会加一些文字简介?

还有很多类似的 SEO 问题,总之,就是让你的页面做的和其他页面尽量不一样!

tijian8.com 应该怎么做?

以这个页面为例:https://www.tijian8.com/0592/50858

所有的套餐简介,全部都是一句话模板,然后调用套餐名称…那么这会造成相似度极高,这个页面对比其他页面的相似度如何? 用这个工具检测:

https://tools.aizhan.com/sl

输入两个套餐列表页面 ( 因为这个是相同程序逻辑生成的 , 所以相似度会比较高…) , 看了一下,好像也还好,48.71%…..

然后看下中康的 …. 16.38% 当然他们是没有套餐列表页的,他们把机构首页当做套餐列表页,所以相似度很比我们低不少…..

那么如果想要优化 , 第一步可以优化的地方就是这里:

可以把这块的内容做一个相对差异化的调整! 比如用几个模板生成不同的介绍,这样像相似度应该会降低到 40%左右,但是还是不够…..

还可以:

  1. 把每家医院的评价模块 , 把展现在首页的套餐评价,调用出来,放在列表页的下方
  2. 调用一些机构信息 ( 如果没有就调用当地的新闻内容,展现在 侧边栏 ,并且显示出一些摘要 )
  3. 写几个模板,然后通过模板调用单项,组合成这个摘要…..

我这里选择第三种方案,因为相对来说,这个影响的页面较多 ( 套餐页面很多都需要个性化简介 )

这里就不贴具体的代码,前面两个步骤理论上要做,先阶段暂时不管…..

页面相似度这块要降下来,其实还是要靠大量的内容来支撑…..后续在持续更新相关的优化方式…先到这里…

如何理解自动化测试和运营的关系?

比如跑步,姿势错了,你跑 1 公里根本不会有什么问题,但是你跑 10 公里会有点感觉有问题,可是当你跑 42 公里的时候,可能身体都会受伤…因为你把一个错误的动作重复了上万次….,所以就算是很小的错误,可能调整一下都会起到意想不到的效果

本文中心思想

www.tijian8.com 这个网站上线的时候,存在着大量的 BUG, 这些 BUG,不仅仅是用户体验上的,而且很多是在 SEO 上的,目前 SEO 有没有类似这样的工具?

答案是肯定有的,国外的一个叫 “尖叫的青蛙” 就是负责 SEO 全站体检的工具,但是这个工具还是不够全面,不过已经可以解决大部分 SEO 问题了…

比如:

  • 页面是否有 H1,H2 标签?
  • 页面是否加有canonical标签?
  • 哪些页面是 404,500,302 的并且来自哪里? 以及占比
  • 页面的图片大小是否超标….
  • 页面是否有 TDK ? 写法是否规范
  • 页面的图片是否有 alt 标签

当然这些只是非常基础的问题,我们一般用这个工具来抓取全站的 404页面比较多,以及处理一些基础的 seo,但是还有很多 SEO 功能是未能检测到的..

比如:

  • 页面的收录率以及收录情况如何
  • 页面是否有做移动端自动适配
  • 页面的 https cdn 等是否有添加
  • 是否有单独的图片服务器?
  • 页面部分代码是否存在大量的空行或是 table ( 当然这个我觉得并不是很重要 )
  • 检测部分页面的相似度,是否过高?

但是,完成了上面的功能,还有一些定制化的功能需要完善,比如以我们的体检网为例….,需要检测的内容如下:

  • 是否存在空单项 或是空单项的内容过少
  • 医院是否有介绍 ?
  • 每个套餐是否有写套餐特点 ?
  • 每个套餐是否有些套餐简介 ?
  • 单项的意义是否存在 ?
  • ….

3 个模块中,1-2 模块算是标准化流程 ( 每个网站都需要的 ), 3 模块算是定制化功能,部分网站是需要的,但是不是全部需要的…..

但是第三模块我觉得是最重要的,因为需要持续不断的在优化….,而且测试的项目会越来越多…. 但是 1,2 模块的很多事项,时不时的也会出现….

其实最理想的情况是应该是用一个脚本,直接把所有的问题跑出来,然后出成报告….

现在市面上有类似 SEO 体检相关的工具,但是我总觉得还不够全面,很多还分析不出一些问题出来,比如就日志分析这个,就需要有专门的一些工具来处理了

最好最理想的 SEO,并且是把所有的事情做标准化,这样才开始一个项目的时候,才不会每次这发现一项改一项 那发现一项改一项 ( 虽然我们现在就是如此 )….

大站的思维和小站的思维玩法可能完全不一样…

小站,也许你发现 10 处错误,但是你改2 处可能就出效果了,追求的是投资回报率的问题

但是大站不一样,你发现 10 处错误,可能你就要全部改掉?为什么? 就是因为每处错误,可能都在大量的页面的中都会出现过,每处错误重复上万次,就变成大错误了…

爱站的词库是如何如此快速的调出来的?

最近在写SEO 关键词查询的脚本比较多,写着写着,发现怎么感觉和爱站的逻辑越来越像…只是爱站是通过他的词库,而我是自建的词库..

这里说下我对爱站的技术实现想法…,因为本人技术比较差,所有如果有错误之处可以勘误一下…,这里仅说下爱站是如何如此快的调出网站的排名数据的…..

首先, 先建立关键词库,这点不用说,比如我们的体检网,我现在以建立一些长尾库为说明,大约有600 多个吧,大致如图:

那么爱站,可能会全网采集关键词 ( 比如百度 top 什么之类的 ),至于怎么建立词库,在这里 就不说了,但是我觉得比较可能的是直接用凤巢的 api,因为我之前做过,里面连搜索量都有,很省事….我这里建立的词库是 600 个,爱站可能会建立 1000 万关键词库
顺便说下,就关键词词库而言,我觉得5118 的词库会比较全,但是也比较杂…

当然这些词也会有所过滤,根据我的观察,爱站会过滤掉没指数的词…. ( 也就是说 你优化没指数的词,权重上不去… ) 所以表面看好像一个行业的词库随便一抓一大把,但是实际有指数的词可能也没几个….


然后,开始抓取这些关键词排名搜索结果,前 5 页.…这里很关键,是前 5 页,因为前 5 页可以直接用一条 url 请求

难道你没发现,爱站排名在 5 页以后的关键词没显示了吗?采集的这些搜索结果,其实可以做个过滤,只留下一些关键数据,比如关键词,和 url… ( 这里的 url 需要获取百度的真实的 url,具体怎么获取我这里也不说,总之很简单…),抓取完的结果是这样的:

不要感觉抓取 1000 万关键词词库的搜索结果量很大…,,服务器够强劲,ip 适当的多一点,做成分布式的话,更新 1000 万词库不需要多少时间的…主要你有钱!

这里我做了一些过滤,因为只要竞争对手的,顺便说下,中康的怎么都是移动端排名比较好?难道他的情况和我们一样…

这里,每个关键词对应前 100 名的 url ( 不过爱站是 前 60名 ) 就有了..而且可以保存到数据库 ( 我这里直接保存到 Excel 比较省事 )


最后,通过类似elasticsearch ( 搜索引擎框架 ) 直接调取数据….

不过我相信爱站这方面的技术要更好,不要告诉我你直接用sql更省事…我不谈技术,你自己体会一下,1000 万数据你用 sql 查询需要多久…然后你用一下这些框架需要多久….

这个怎么理解?比如我输入 tijian8.com, 他就直接把所有 url 包含这个字段的数据筛选出来,然后做一个计算 就可以了….

这里说下,爱站应该是这样的:

  1. 词库抓取更新,专门一个程序,居我所知,这个程序的更新频率不是很高
  2. 词库搜索结果页抓取,专门一个程序 ( 你可以理解为排名更新 )
  3. 页面清洗一个程序…
  4. 计算得分一个程序..
  5. 搜索查询一个程序…

当然这些都是我想出来的…因为我现在就是这么做的….

  1. 词库抓取,我目前是人工录入 ( 这样我们可以更精准,毕竟权重太低,要有所侧重 )
  2. 搜索结果抓取,我有一个专门的程序…
  3. 页面清洗 这个是我整 到 一起了….因为我暂时还没想过留下这些 html 能有什么用…
  4. 计算得分 , 这个很快….
  5. 搜索查询 , 合并在一起了…

然后我随便写个公式,计算一下分数, ( 只是我的公式只参考排名,爱站的只参考排名指数,差距在这里 ) 因为我们很多词都没指数的…

具体的分析和计算思路在这里了….

以前一开始感觉爱站这种真的不可思议…后来写着写着,发现好像还好….当然这中间涉及到爬虫能力还是很强的….处理几个词很简单,但是处理几千万词就有点难度….

当然基于上面的理论,你要搞这个 360 权重 搜狗权重 什么的我觉得也是比较容易的 ,唯一的难点是, 蜂巢有 api ( 当然懂技术的,可以直接写爬虫去爬,以前 Zero 大神就写过,随随便便爬个 十几万 )

SEO基于排名为绩效的考核分析

这段时间在优化 www.tijian8.com, 在给下面的 SEO在制定一些规则,目前来说.. 在制定规则之前先要明确一下策略目标,以及把拆分的细目标说明清楚一点.

开始拆分目标…..

我们的总目标,是需要 城市+体检,以及机构+体检,比如 : 泉州体检, 泉州 180 体检 类似这样词,以及对应的长尾词,那么接下来开始拆分目标:

第一阶段的目标,完成机构+体检的关键词以及对应的长尾词….

再往下拆,因为还是太大 不够细, 拆下去就是: 完成公立三甲,以及目前竞价还有出单的重点医院的机构+体检的关键词….

开始制定计划….

确定医院数量

目前手上的医院有哪些? 整理出来大概如下:

类似这样的医院有 30 家左右…

确定关键词数量

一家医院可以做的词有 xxx 体检 ,xxx 体检中心,xxx 体检多少钱… 类似这样的组合,同时医院,有的时候还会有很多别称,比如在泉州,我们一般会叫泉州第一院为泉州一院,所以这些词也要考虑进去…

那么这样拓展下来一共有多少词?

类似这样的词,大约有 300 多个吧 一家医院平均操作 10 个左右这样词…

开始监控排名…

在这篇文章里面有详细说明了,http://www.zhangte.org/1741.html

监控排名有两个目的:

  1. 了解竞争对手的情况,以及自己和别人的差距
  2. 了解自己目前资源应该怎么分配,以及下一步行动的规划

比如还是这张图,就可以看的得出来目前的差距大约在 30 倍~40 倍之间..

目的就是缩小差距 ( 这个公式有稍微修改了一下,以后就算加词,也不会对得分影响太大… )

监控和量化竞争对手的差距,除了关注比你优秀的对手,也可以关注不如你的对手,为什么?因为你可以知道他的动向,因为也许有一天你会突然发现,你们的差距在缩小,居安思危…!

seo 的核心,第一步,就是建立词库,如果词库搞错方向了,方向就错了,那么基本上所有的努力都是事倍功半的,所以在千万先想清楚,自己要什么!

开始监控绩效

我这里推荐的方式,是一家医院一家医院作为考核目标,并且前三和前五,以及首页的考核目标分别不一样…

怎么说呢?

比如这是我用 Python 自动分析出来的.. 以后运营或是主管,只要关注这张表,就大概知道 SEO 有没有效果了…

比如上面的图,完全可以制定达标一家医院给多少提成,或是达标率达多少,给多少提成了….

好吧,我承认

我硬是把以前搞站群的绩效,拿来搞单站的 SEO 绩效….

SEM 竞价数据运营 ( 一 )思路整理

做SEM 的一个很大的痛点,就是每天调账户,但是所有的 SEMer 都说不出,应该怎么去调这个账户

我最近公司的一个竞价离职了,所以,有一个账户落到我手上,但是每天分析的较少,做的调整又少,所以导致这个账号的效果直线下滑!

那么我们从源头来分析一下,SEM 的核心是什么?

一, 知道每个词的投资回报比!

这个是最直接,也是最有效的,我们公司的业务,基本只要追溯到到访 ( 或是预约 )就可以了.追溯关键词的投资回报比 ,肯定是以搜索为主!

那么最理想的情况是什么? 当然是通过搜索词,就知道每个词的投资回报率,然后根据词做调整!

百度的竞价后台的体系相对完善,可以设置跟踪 ( 但是也不是太准 ) , 所以最好的方法,还是客服通过商务通进行标注,然后把商务通的数据和百度竞价的数据进行匹配和对接…

这样不光知道每个词的转化,还知道每个时段的转化! 这部分的报表和思路还在构思中….

二, 知道重点流量的变化情况

所谓重点流量,就是比如 {医院品牌词} + 预约 这类的词流量比例是否下降,如果有下降,就需要进行具体的分析 ( 比如分析哪个计划计划下降,或是哪个地区下降 )然后做相应的调整…

很多时候,比如某个地方多了一个竞争对手,可能你都没感觉到…但是流量已经被侵蚀了… 所以,关注核心词的流量走势是最好的方法,那么问题是,如何更快速快捷的关注到这部分流量的走势?

答案就在这里:https://tongji.baidu.com/open/api/more?p=tongjiapi_getData.tpl

通过百度统计的 api,由 python 脚本来处理,对多个账户的搜索进行下载,汇总,然后用正则或是什么其他的方式进行匹配…绘制出曲线图 ( 最近七天 , 就是每天的最近七天的走势图 )

这样可以很清晰的察觉到,如果有流量下降了,那么曲线是下滑的,就要做对应的调价处理了…


以上,仅仅是我作为一个菜鸟,在思考的部分我认为比较核心的数据,后期在做数据分析分析报表的时候,会持续的完善这部分内容….

接下去开始设计报表了….

通过数据指导运营

自从上次写了一篇,<< 把自己活成了小弟>>的文章以后,便开始进行深刻的反省,当下,我觉得最需要建立的就是数据流体系,需要建立一系列的数据流,来可视化所有的运营效果!

比如,在昨天提到的日志分析数据流, 这个报表还未全部完善,但是基本上就可以看出很多问题所在,比如:

  1. 蜘蛛爬取最多的页面类型是不是你想要排名的页面?
  2. 网站程序有没有错误或是 BUG(404 的产生 )
  3. 网站哪些页面是需要优化的 ( 抓取的时候,产生了大量的流量 )

通过日志分析的报表,不断持续的优化上述的几个步骤,循环,分析,再循环,相信数据会越来越理想的!

当然,日志分析仅仅是运营中其中一个环节,而且还是很小的环节…那么其他的运营日报是什么?

首先,是 SEO 效果需要可视化出来,有人说 5118 , 或是爱站不是很好的可视化工具? 一般初学者或是老板,不懂的会去看这个数据,但是有运营经验的人,一般不会,比如我…..哈哈…

为什么?

如果看爱站数据,你会发现几个很有意思的现象:

比如 zgui.com 这个站

你会发现权重很高很牛逼!但是你仔细看一下排名的关键词:

发现有什么问题没?

就是有排名的词 都是医院类的词 , 他是通过医院类的词,来拉升权重,但是这个站是做体检的! 所以大部分流量或是权重是无效的!!

反观 来看这个站:viptijian.com

权重不高,但是都是体检类的词!

所以我们要的是定向核心词!! 所以我们要的是定向核心词!! 所以我们要的是定向核心词!!

请把上面的话好好读三遍….

那么重点来了,我会怎么做?

首先,我会根据我们的目标,整理一份词库,这些词可能很多都是长尾词,但是我明白,只有这些词是可以带来订单的 ( 根据百度的竞价,其实还少了一部分词,比如全身体检,预约电话等等 )

然后,我抓取百度前 100 名的搜索结果页, 然后把排名前 10 的做一个计算 ,比如排第一我给他 1 分,排第二,就是 0.9 分…以此类推,假如 zgui.com 在一个词里面有 3 条结果,分别是 1,3,5 那么他的得分就是 1 + 0.7 + 0.6 = 2.2 分 , 大概你理解一下 我也是爱站,5118 类的简单版算法,只是我去除了:

  1. 去掉了对指数的考量
  2. 自建了词库

那么最后我得到什么?

发现什么 ?

  1. zgui.com 居然在我认为核心的词库里面,得分最低
  2. 做得最好的居然是权重和预估流量比他低好几倍的 viptijian.com,而且覆盖数居然多了将近 1.5 倍
  3. 我们和他的差距居然这么大!!! ( tijian8.com )

当然 ,以上是可视化 SEO 数据效果的一部分, 通过这部分知识,大概可以看得出,数据指导运营是什么意思…

大概先这样,要去冥想了….

后期会有大量的数据运营思路以及相关的技术实现方式….敬请关注….

当然 可能有人会问, 这些东西整理起来不是很费时间,那么你就错了,大家忘记我是会 python 的,所以上面提到的一切,都是自动的…..

我的目标是什么?直接通过数据,就知道自己应该怎么做!!!

注意 , 这里说是怎么做! 已经具体到你应该怎么做的数据运营

记一次SEO日志分析记录

SEO 的日志很重要,但是相信很多人只是嘴里说说,因为本身日志分析类的工具就少,还好自己懂,又懂 pandas,所以日志分析这件事对我来说相对不是很难,难是难在分析思路!

以前优化小站的时候,没有想过,404 页面这么重要,因为不管自己写的 django,还是 wp,或是 dede,基本上很难出现大规模的 404….因为本身程序就优化得很好了…

但是如果自主开发的,特别是程序不懂SEO 的,然后功能又很复杂的,就会出现 404,而且是大规模的…

就比如最近连续在处理 404页面,直到现在才得以控制,大致如图: ( 这是百度蜘蛛的爬取结果 )

通过日志分析,可以看到每日的蜘蛛爬取量,以及 404 页面的占比 ( 每日爬取 )

所以,我的第一个目标 ,就是把 404 页面控制在 2%以下!!!为什么不是 0%?,因为这个程序较为复杂,很多场景目前还没有很好的解决方案!

当然 404 页面的价值,主要是用于主动提交给百度,当然这个目前是手动的,如果程序可以自动,那么就爽了 ( 当然 python 可以做到 ,后期再补全 ,大致的思路,就是发现 404页面,就更新404.txt 那个文件,主动提交给百度 )

除了这个,SEO 日志还可以分析出,百度蜘蛛的爬取页面占比,比如:

这个数据来源主要根据 url 的特征做的分类,比如 www.tijian8.com/0595/xxx 这个就是机构页

那么这个数据有什么用? 我们发现,城市列表页的占比较少, 所以我会在网站的更多入口给城市列表做一些导入链接,同时也会增加一些外链….当然机构主页的占比 32%是正常的,我们的目标是把城市列表页面提升上去….


其实关于 SEO 日志分析,还可以做很多事情,上面的分析思路以及相应的脚本,是中午在星巴克喝 1 小时咖啡撸出来的..

那么 SEO 的日志分析还可以看出什么问题?

  1. 可以看到每次蜘蛛爬取的消耗的流量,这个可以直接查看出流量过大的页面 (此页面可以优化
  2. 查看 SEO 外链的效果,如果你做了蜘蛛池,那个页面流量没有增加,那么外链可能没效果了
  3. 其他的不一一列举了