百度索引和百度收录的关系

在爱站里面有两个数字,一个是索引,如下

还有一个是收录

站长也有这两个数,只是收录和爱站不太一样….

从我的理解来看,这个索引数,和 site 基本一直….

但是收录数,我不知道这些工具是从哪里获取的…,如果有知道的人,还欢迎交流一下

在我的理解,能 site 出来的,应该是可以直接参与排名的,如果 site 不出来的,但是输入url 又有收录的这种,应该还没能参与排名….

但是根据我的观察,site 数量基本 7-15 天更新一次,而收录量确可能每天更新…

这两者的关系是什么 ? 我的理解: 收录量越多,最后 site 能出来的可能越多!

但是有个问题,如果一个页面,收录量远远大于 site 量,那么很可能这个站的页面质量是问题!

SEO如何做到敏捷迭代?

不管是学习方法,人工智能,或是敏捷开发,里面都会提到一个词,就是”反馈“.

1. 敏捷的学习方法

什么是最好的学习方法? 就是你学习的时候,可以尽快得到反馈,反馈周期越短,你越能快速的调整计划,尽快的验证你做的事情是不是对的…所以,考试为什么这么有效~因为他就是一种验证!一种反馈!

但是,考试的周期太长 ( 学校 ),一般都是 1 个月一次,然后其中考,期末考,这会导致反馈的周期太长…,学习效率低下的原因其中之一就在这里…

当然有的优秀的老师,会在每周进行 2-3 次,来验证学生的学习效果…,这也是为了缩短反馈的时间…及时的调整教学计划

那么问题来了?有办法缩短学习的反馈周期吗?答案是肯定有的,那就是费曼学习法.简单的解释,就是你看了一个知识点以后,或是学习一个新概念以后,然后以自己的话,复述一遍,如果觉得哪里卡壳了,再回过去,再去看一遍,然后如此循环,直到完全搞懂 ( 敏捷? )

这个方法看似简单,实则非常有效…因为他极大的缩短的反馈的时间,试想一下,你刚学了一个新概念, 然后马上就可以验证了….

当然反馈只是高效学习中的一个环节,还有其他的比如间隔复习,等等这类的技巧和方式,这里就不讨论.


2. 敏捷的SEO

现在回到 seo,做 seo 和学习新东西非常像,只要你控制好反馈的周期,可以大大节省 seo 的成本

从这个角度来思考,那么什么是seo 的反馈周期?

其实就是 SEO 流量,最简单直接的反馈的你 seo 计划实施的有效性.但是 seo 流量这个反馈周期太长了,如果给你一个门户站,你做了一波操作,等他收录有排名,再有流量,这个周期要 3 个月…甚至半年,如此长的反馈周期,你说能做好项目吗?

那么要如何缩短这个周期?就要开始拆分,获取流量前,要做好:

  • 先搜索需求覆盖规划 ( 说人话-就是建好词库和规划页面 )
  • 然后操作网页的收录量
  • 然后关键词的排名

这三个里面,挑其中一个来讲,网页的收录量,其实这个反馈周期也很长,快的也要一周,慢的一个月都不怎么更新…这么长的反馈周期,对执行 seo 肯定是不利的…

那么如何缩短网页收录量的反馈周期?那就要对这个进行拆分,影响网页收录的前置因素是什么? 是蜘蛛抓取!蜘蛛都不来你谈什么收录?

现在看来是找到核心因素了,网页收录虽然反馈周期太长,但是蜘蛛的来访量,这个数据完全可以把反馈周期缩短到天….

换句话说,你今天做了一波操作,比如外链,最近 2-3 天内,蜘蛛有来访,可能是有效,蜘蛛无来访,那么可能是无效的….

当然,如果再拆分下去,可能会有什么权重蜘蛛的来访,竞价蜘蛛的来访,这些这暂时不讨论….

比如从蜘蛛的来访量,还可以看出,蜘蛛频繁抓取的页面的收录情况到底如何,如果不好的话,那就是页面的质量问题! 所有这就很好的解释了日志分析为什么这么有效~

不过对于页面的质量,其实也有很好的缩短反馈周期的工具,就是熊掌号!熊掌号的后台提交,可以再第二天就看得出页面的质量!所有完全可以基于这个参考标准来进行页面调整

3. 回到敏捷

为什么缩短反馈周期这么重要 ? 因为我们生活在一个不确定的时代,1 年的 seo 方法,有效,现在可能完全无效~甚至,这个方法对这个站有效,对另外一个站完全无效!

做过站群的都应该知道,明明用同样的方法,操作了 100 个站,就是有的站上的去,有的上不去…你说这么解释,所以只有敏捷,才能应对如此让人琢磨不透的度娘!

项目实施的是否能正确,并且不浪费的关键因素,就是缩短反馈周期!如果有的吸项目,反馈周期很长,也要自己去想办法去缩短,

参考 SEO 的敏捷 ,就 SEO 这个事情本身,其实很多人都觉得反馈周期很长… 那么如果要想办法找到缩短这个反馈周期的因素,你就必须要深入,才有办法找到….

缩短了反馈周期,这中间做出的东西,可不仅仅是时间成本这么简单的….

找到核心问题,问题就已经解决一半,深度思考的重要性

对于 seo 来说,围绕的无非几点

  1. 用户体验 ( 百度认为的用户体验,非站内 )
  2. 内容的产生 ( 同上 )
  3. 蜘蛛入口 ( 同上 )

那么三大问题,拆解:

  1. 点击
  2. 收录 秒收
  3. 批量造内容
  4. 批量造外链
  5. 老域名
  6. 词库
  7. 如何自动维护串联上述所有事项,做成一个维护系统

站群维护系统,是做后自然而然的产生的,不需要特地去做,比如做快排,你需要先把词库整明白 ,然后还需要搞定收录的问题

然后收录的问题搞定以后,你就需要批量造内容的方法,以及批量造外链的方法

那么有了收录,已经造内容的方法,和做外链的方法,那么你又需要更高的效率,就需要有批量做老域名的思路….

所以,你看似在解决一个问题,其实已经在解决另外一个问题了….

但是这个和同时启动 7 个 项目区别在哪里?假如你同时启动 7 个程序:

  1. 快排程序
  2. 批量生成内容程序 ( 文章生成,采集,AI 等等 )
  3. 提高收录的程序 ( 蜘蛛池,等等 )
  4. 批量造外链程序 ( 友情链接管理系统 )
  5. 老域名挖掘程序
  6. 词库建立程序
  7. 以及站群维护程序

那么,很可能,你要做到把这些项目做一个集成,可能需要半年以上的时间,最关键的是,这半年时间,你做出的任何一样产品,可能都是无法交付的,换句话说,都是玩具!

这就跟一个学霸说的一样,学习的最佳方式,就是要和旧的知识产生链接,那么如何产生链接?就是深入一个知识点!一直挖….就能挖到本质,到了本质,就可以和其他的学习产生链接!!!!这就是传说中的一通百通的道理!

那么做项目也是如此!最重要的就是需要产生链接!链接越多,那么该产品的价值就越大!作用也就越大!

那么如何链接? 就是不断的深入进去 ,就能产生链接

总结 : 好的产生是自己长出来的!

对问题更持久更深入的进行思考

这三个月,可能是我最近 7 年以来成长最快的 3 个月,为什么?

因为我学会了对一个问题进行更深入更持久的思考…

我发现,很多时候,做不出成绩,根本原因是因为没有持久的话的思考造成的,简单说,就是思考不够深入 ,或是执行不够深入,做事情都停留在表面

我以编程为例,我写了很多小脚本,但是小脚本本身不会产生任何价值,最多就是帮我解放一下双手.

但是如果对小脚本进行持续的改造和持续的迭代,那么这个脚本最后就会长成一个系统,甚至一个团队,一个产品,一个公司….,那么这才有核心…

我有一个非常好的朋友,我这里暂时成他为 G 先生,G 先生在 7 年前,和我最大的区别在于,他能够对一个看似简单问题,进行持续深入的去分析,并且去做,再分析,再做…然后由一个问题/事情,长成了一家公司,一个团队,创造出价值….

从以前 7 年前,我和 G 先生做网站的态度来看,就不太一样,我们当时做的是网站出租,我的做法是,网站达到关键词排名以后,租出去,就剩下维护了..

但是 G 先生不一样,他说他在想如何让租他的客户可以赚到更多的钱,所以他一直优化网站,或是做更多的网站租给同一个人,一直把一个站,做出价值….

从这里,大家看到,7 年以后大家的差距了.

SEO 是夕阳行业,这句话我在 2015年的时候就听说了,但是现在快 2020 年了,G 先生依靠 SEO 取得了巨大的成功….

这让我想起,在 2009 年的时候,刚进入互联网的时候,有个叫董俊峰的人,自称很牛逼…在 09 年的时候,他说,竞价已死…..SP 已死…..

但是在 2012 年左右,SP 才真正的死掉,在 2016 年左右,竞价才真正的死掉 ( 是指做网站 ), 但是!!! 现在真正死了吗?没有,只是你不知道而已,还是有人在赚钱…..

这中间,有多少人靠一个夕阳产业取得了巨大的成功?是夕阳行业?还是你的格局出了问题?

对问题的持久性思考,为何如此重要?

假如有两条路,你要做一个自动赚钱系统,这个系统由 A,B,C,D 组成,那么你会怎么做?

大部分人,会同时做 ABCD 四条线

但是具备深度思考的能力的人,会先做 A,然后由 A 再长出 B,再长 C,D 这样..

因为系统的本质,最后都是相连的…

比如做一个自动优化系统 ,这个系统由 快排,站群维护,友情链接 3 个模块构成

那么你把快排做出来以后,你会发现,想让快排效率更高,你就需要有一个快速布词的工具….,以及如何建立词库的系统

那么这个词库系统,就和站群维护产生了关联,因为有词库,可以指导文章更新…

然后在慢慢长出站群维护系统….

以这个思维做事情,快排做出来,开始产生价值…然后再慢慢把手升进别的系统….

关于 seo 布词工具的一些想法

需要实现的目标 : 扔一堆关键词进去,然后再扔自己写好的标题,看看这个标题可以匹配到哪些词,哪些词没有匹配出来…

比如,我现在需要操作的词是:

seo 工具
seo 想法
seo 软件

那么这个脚本就会实现匹配出目前这篇文章可以操作的关键词 ( 在提前设置好的词库里面 )

还需要什么?大概的思路是这样的,但是会做一点变体

这工具用于写标题以及规划 seo 关键词布局的时候非常有用…

任务管理带来的最大的弊端

以前我喜欢做任务管理,但是任务管理有一个非常大的弊端,直到现在我才想明白…

正常的任务管理流程是这样的:

  • 项目 A
    • 任务 A
    • 任务 B
    • 任务 C

这个看下去是没毛病的,但是任务一多的话,就很严重 …

基本上等于会深陷以任务海之中,因为当初在分解任务的时候,可能你没有做过类似的事情,只是按照感觉来分解,然后你觉得分解完了这样一步一步做下去就可以了?

其实这种想法是错的…因为**你的需求会变**,需求会变,就会造成:分解出来的任务,反而成了一种负担!

现在我比较推崇的做法是,专注于当下…只关注少数的几个重点目标

什么意思?

  1. 就是每天你知道现阶段需要做的事情的目标,大概 2-3 个就够了…然后每天自有发挥~,你可以结合之前的经验,但是不能按照之前的分解的任务来做…….
  2. 任务可以搜集,但是不一定要马上去做,除非任务特别紧急~否则不用做…

第二条,是一个天然的过滤器,如果任务很重要,相信过不了多久,他还会出现在你的任务栏里面,如果不重要…那根本就不值得去做…

这样,每天专注少数几个目标,然后重点把目标做成果,执行力的问题也会解决….

当人们面对的任务特别多的时候,不利于他们的完成任务的!

目前市面上的制定目标的方法都是错的!

最近定了很多目标,然后懂频繁实现了感受非常深的一点,以前市面上说的那种关于 SMAT 的目标制定的方法都是扯蛋的感觉…

为什么这么说?

比如以一个非常典型的 SMAT 目标来说: 我要在1 个月读 3 本书,够具体了吧,够量化了吧.

但是这种目标能实现吗? 我相信大部分人会觉得 呵呵…

先不讨论目标的合理性,就这样的目标,我就觉得非常反人类.

因为 : 你看到这个目标的时候,不会心动,而且还有一种蛋疼的感觉,就是无名的压力…

我理想的目标应该是什么?

我觉得,理想中的目标,一定是一个场景,而且是非常具体的场景!冷冰冰的数字不会让你心动,但是场景会!

比如,我为什么一个月读三本书?背后的意义是什么?

比如我是要掌握 python,并且可以写出一个自动化爬虫,所以我需要吸收 3 本书…而我写的这个爬虫,是我自动 seo 优化系统中的一部分!

我把整个场景,与我的大场景,就关联了起来…

那么我的目标就会这样定 : 写一个 python 爬虫,采集百度的文章,并且能让一个新站的实现秒收.. ( 当天发当天收 ),通过这个爬虫,我可以走上 seo 巅峰…o(╯□╰)o….

这样的目标,我感觉,更具灵活性,而且更心动…每天看到这样的目标,就是心动..

然后我一定要读三本书吗?

不一定吧….我一开始是感觉要读三本书然后吸收掉,然后实战…

但是我开始做这个东西的时候,可能第一天就会把三本书这个目标全部推翻!

但是用场景的目标就不会…场景的目标,是很难轻易推翻的…

什么是对的?

我实现下来,发现,目标量化对目标的实现没有帮助!而且容易让你陷入事物圈..

你会感觉你一天在做琐事,而且每次拿起书,你会有种莫名的压力…..,而这种压力,会让你,一直只是为了目标而目标,而不是去思考背后的意义

基于 dede 用 python 写的一个站群管理程序

最近手上的站比较多,用 python 写了一个站群管理程序,其实我一直就想写这个东西,写了两年没写出来…

这次借助 OKR 思维,把这个站群程序好好给迭代一下

目前的版本,感觉比较简单,目前实现的功能大概如下:

  1. 每天定时自动发布 ( 基础功能 )
  2. 3天查一次收录,并且把未收录的 url 主动提交给百度 ( 这个其实可以做成每天 )
  3. 文本分段 ( 2-3 句话 分成一段,主要针对格式比较混乱的 Html )
  4. 百度原创度检测,对文章库进行批量的原创度检测 ( 根据飘红面积 )

现在的版本比较简单,但是基本够用,因为目前第一批 测试站只有 30 个左右,后期主要是针对文本处理的模块进行迭代,目前的逻辑还是比较简单…

百度实时推送 python 版本 ( 单条 url )

import requests
def tui(domain, token, url):
        '''百度实时推送,传入域名,token,以及urls(直接read出来的格式)'''
        api = "http://data.zz.baidu.com/urls?site={domain}&token={token}".format(domain=domain, token=token)
        headers = {'User-Agent': 'curl/7.12.1', 'Content-Type': 'text/plain'}
        r = requests.post(api, headers=headers, data=url)
        print(r.text)

传入 doman,(www.zhangte.org,token,和需要提交的 url )

就可以返回提交的结果,就是一个 json…

现在好像很多站都是50万了…

不知道这个有没用…

接下去的计划,每天把未收录的重点页面提交一次,看看这个收录率怎么样

这段时间最大的收获就是不断的复盘!

我觉得今年应该是我最努力的一年,也可以说最有成就的一年.

以前我做事情,从来都是有始无终的

什么是有始无终?就是做一个事情,只是为了做一个事情而已,而没有把他优化到完美的地步

但是这三个月的时间里,我真正的把一件事,通过不断的总结,不断的优化,不断的尝试..最终做出了效果….

其实很欣慰,虽然这个最终的效果,和最终版还是有一定的距离,但是已经初见 成效了…
比如,体检网这个词,这段时间已经优化到首页了…. ( 虽然有的地区还是不一样的排名 )

为什么要优化这样一个没用的词?

其实懂 seo 的人应该知道,这个词产生不了很大的价值,但是这个词,对于我们的研究成果,其实有着很大的帮助!

因为这个词具有代表性,比如

这是一个有那么一点的指数的词,如果这个词可以搞上去 ( 实际花了快 20 天的时间)

那么其他的词理论上来讲问题不大…

每天的复盘很有帮助

这段时间,不断的复盘,不断的总结,我发现,确实帮助非常大…有的时候,甚至会把 2 个月前的东西和经验翻出来看…多会有很不错的收获

孔子说,温故而知新可以为师矣…..,现在觉得非常受益…

下一个阶段,善检网的 SEO 主要阵地是佛山….而且,主要的词就是 ( 佛山体检和佛山美年 )

对了,顺便说下,现在研究的站群程序已经有了初步的效果…

这个站群程序出来的话,管理 500 个站应该问题不大…

我很有信心,按照现在的工作方法,可以起到很好的效果

用python 计算文章原创度

目前市面上,基本上的原创度算法,都很简单粗暴,比如爱站的思路是这样的:

  1. 把文章按照符号或是长度分割成数个段落
  2. 把每个段落扔到百度去搜索
    1. 如果有完整匹配,就是非原创
    2. 如果没有完整批量,就是原创

其实爱站这个算法与很大的问题,如果是做了同义词匹配呢?

那不是很尴尬的认为是原创的?

一句话只要替换了一个词,就会认为是原创的,这种做法是及其不合理的!

那么正确的做法是什么?

其实就是验证摘要的飘红面积!!

什么是飘红面积?假如一句话有 10 个字,你替换了一个词,还有 8 个字是一样的,那么飘红面积就是 80%,那么就是不原创!

飘红面积越小,效果越好

用Python 撸了一个代码,马上测试一下,看下效果:

比如我博客的文章的计算结果:

原创度 88 分,算是很原创了

然后在去选一篇A5 的结果..

71分,因为这个算法的原因,所以导致,面就不可能是 100% ,因为必须有一些其他的词会匹配出来,但是我们认为,

  1. 大于 80%的文章是好文章
  2. 大于 85%的文章非常不错
  3. 小于 80 分的,就是 不好的文章
  4. 小于 75 分的,就是非常垃圾的文章

为了验证效果,再来看一篇文章

比如某体检网的,计算结果是 83%,勉强可以通过

再看看我们的编辑:

好像有点打脸….77 分…

再看一下百度新闻的一篇文章

74 分,已经是属于严重垃圾的文章,看下百度的搜索结果:

看下标题的这个飘红面积….

SEO中以少驭多的核心思维

1. 战略理论

做 SEO 就和打仗一样,一般是两种策略:

  1. 农村包围城市
  2. 集中主力各个击破

能提出这两条理论的人真的非常伟大 ( 相信大家知道我在说谁 ) 没有难懂的黑话,通俗易懂,看标题就知道意思

那么这两个思路如何应用到 SEO 中?

大家知道,农村包围城市,这个伟大的原来,被国外的一个人,写了一本长尾理论,还写成了一本书….真是醉了..,其实在 seo 中,这个思维随处可见:

比如站群操作,采集站的操作,等等….

但是对于www.tijian8.com 这个站来说,我却不想用这个方法,理由有如下:

  1. 新站不好大规模收录
  2. 需要花的精力较多,且短时间内不容易出效果

所以,我用了另外一套完全不一样的方式,就是集中主力各个击破!


2. 如何集中主力各个击破?

其实体检的核心流量,来源无外乎:

  1. 机构
  2. 城市流量
  3. 长尾词/疑问词 -> 引导 ,比如 xxx 需要做什么体检项目?

先说第三类,需要比较高的编辑要求,并且需要比较高的页面质量,但是页面质量,不只是文章部分,而是所有聚合出来的内容,都属于页面质量,网站现在程序还有各个 BUG,并且权重较低,大规模生产这样的页面,难度较大,所以 PAss 掉

再说下第一类,机构流量

其实这类的流量,最为精准,转化也最高,目前是重点操作,但是这类的医院,我并不会操作所有的,而是只操作 30 家,先把 30 家重点医院吃下来,然后再去操作别的医院,慢慢吞噬其他的医院….,现在这类的流量,操作思路之前有介绍过,现在不多介绍,在这篇文章里面

现在我们的排名分已经如下:

也就是说,在重点医院的覆盖率的情况下,我们已经超越了 123 这个站…并且在未来一周有希望超越他两倍以上,我们的目标现在是 rkang 了…

医院部分的情况,其实慢慢有上升,但是前五的覆盖率很不理想,这个是需要去重点再去操作一下的.

这种操作机构的思维,有一个好处,就是可以把需要操作的关键词,进行指数级的缩减….一个体检行业的词库,假如 2 万,那么我只要操作 1000 个词就能取得不错的效果

接下去来看下,城市词库的建立,其实和医院一样,我们只要聚焦操作核心城市大约 10 来个,只要能做上排名,就能取得不错的效果!

那么词库是这样的,简单来说,就是一些机构的长尾词…

那么,跑一遍下来,发现排名是这样的:

在城市方面的表现,tijian8.com 的表现实在太差,同样的,不出所料,在体检流量方面,做的最好的还是中康….很明显得分遥遥领先…

但是同样的道理,我把需要操作 2000 个左右的关键词,直接缩小成 115 个….

换句话说,就是操作 115 个词上去,就能取得不错的效果

这个中间有什么规律?

40 个医院的 url + 10 个左右的城市 url,总共 50 个 url…..,算上手机的,就是 100 个 url….

只要让这 100 个 url 收录,然后把全站的资源侧重导入到这 100 个 url 里面,就能取得不错的效果!

如何集中主力各个击破?

  1. 全站的链接导入侧重调整
  2. 编辑文章编辑侧重调整
  3. 外链导入侧重调整

如何更加聚焦?

  1. 筛选出城市和重点机构的交集,比如操作的机构正好落在重点城市里面
  2. 操作这些交集医院和交集城市

目测,可以把 50 个 url 起码缩到一半…

感觉整理词库都是在瞎折腾….

其实可以直接用竞价的那份关键词列表就可以当做词库了,多好,又有关键词,又有着陆页…

只是有一个不好的地方,就是关键词有很的是重复,但是这个其实不影响大局观,都是可以操作的….

其实这个就是体检的词库,这个才是最标准的,然后如果竞价到时候有更新的话,定期去更新一下这个词库就可以了…..

上次提到的竞价对手分析,最标准的应该是建立在这个词库上进行计算,而不是 30 家医院, 感觉这个并不是很准,并且 30 家医院的行业格局有限…..

不过如果全部操作的话 ,感觉又有点乱,到时候会失去重点…

不过 seo 和其他的又不太一样…

好像你想做的词,又不一定能按照你想要的收录,没收录你就不好操作…. 所以直接干整站会比较简单,而且粗暴…

现在唯一需要整理的是,竞价的词库,如何和 SEO 进行很好的同步?

关于tijian8.com 的收录新增方案

现在这个站的收录量速度实在有点堪忧,特别是移动端的,整站到现在的收录量才 1000 多…

目前打算做一些调整,看看这段时间的收录量会不会有所好转

目前的收率很低,今天把需要操作的重点 url 整理出来,大约有 3000 条所有 ( 如果分开移动和 pc 就是 6000 条 )

大概的效果是这样的:

然后每个页面都去查一下收录 ( 移动端加上 m. PC 端加上www. 最后看到是这样的:

这些页面的收录率现在极低,需要做一个调整,所以会有后面的熊站号和站长提交的标识,那么这就是我要做的第一步:

1. 利用天级和周级的提交

主要是利用熊掌号后台的提交 ( 主要移动端 ) , 站长工具,的 PC 端,大概是这个样子的…

整体的思路是 : 抓取所有未收录的页面 ,批量查收录, 区分 pc 和移动端,然后每天自动提交这些 url ( 不重复 ) , 把天级的 url , 每天进行提交…提交完以后在 Excel 做好备注 ) 熊掌号代表移动,站长代表 PC )

然后可以做第二步 :

2. 利用未收录 sitemap,引外链

大体的思路,就是获取到平台所有主要页面的 url ( 比如 城市主页,城市列表页,机构主页,机构列表页,… , 以及部分简单的筛选页 )

然后把这些页面做成 1-2 张 html 的 sitemap 放在全站的底部,再把这条 url 去做一些外链,引导蜘蛛来爬这个页面…

这样蜘蛛的爬取量肯定会上升…这招我屡试不爽…

3. 构建词库,提升整体权重

每一条 url,需要拓展 5-20 个词库,比如这样:

然后写一个程序,把这些 url 和刚那份 Excel 做好匹配,并且标注好,比如

这样构建好整个流程以后,可以干什么?

  1. 如果有新增 url ( 比如新增套餐,新增专题页 ) 等,我只要扔到这份 Excel 里面
  2. 然后会进行自动收录查询,自动熊掌号提交
  3. 定期会根据未收录的 url,进行自动的创建sitemap.html,然后发给技术去更新 ( 我不是技术吗? ),并且做引外链措施
  4. 每天关注,新增有收录,但是未加词库url,有没有添加到词库 ( 或是也可以自动添加到词库 )
  5. 词库自动做一些优化处理 , 类似像爱站那样,定期更新效果
  6. 循环以上 1-5 步…..

这个词库可以做到多大?

就体检网这个项目,我觉得大约的词库量在 5 万左右….. ( 麻痹,感觉有点累 )

不过现在操作的长尾词居多 ( 以后做的应该重点全部放在大词 ) 现在做长尾的目的是为了带大词

最后说下 刚看了下 排行榜 , 现在的分数大概如下 :

和中康的差距目前缩小在 16 倍左右 ( 词库的覆盖量 )

对比一下之前的 ( 只有 4.85 分,覆盖量 15 个词, 现在 10分,覆盖量 106 个词了 )

不过大约也是有一个月的时间了,这个增速其实是非常慢的,因为当时没有大规模的测试,最后再上一张 5118 的权重图:

我有一种预感,这个曲线,在未来的一个月会很好看…..而且有极大的可能会直接飙到权重 3 以上…..

好的计划是不断的在调整的….

以前有段时间,总感觉实现规划好没什么用,因为在执行的过程中,大部分的计划都是要推翻的!我一直不明白为什么会这样

明明安排了,也分解了,但是在执行中,总不能按照之前的分解的进度去执行,然后整个计划就全部推翻,所以也就有了 “计划无用论…”

但是这段时间,看了一本关于用印象笔记来做任务管理的书籍, 他里面提到了一个很关键的东西,就是成果管理

一般的任务管理体系是这样的:

这种体系有个很大的弊端, 就是把任务分解了以后,然后有大量的行动,而大部分的任务管理软件,比如 Todoist,或是 Omnifocus, 会让你每天看到大量的行动….

但是每天让你看到这些行动,是不助于你完成任务的! 因为你根本看不到全局…

所以,你肯定会挑选一些你想做的,或是一些简单的行动,开始做…..

最后就会发现,行动做了一大堆,但是任务没完成一个…. 是不是有这样的感觉?这个弊端,会让你发现,每天好像很忙….但是好像又没完成什么事情?

所以,基本上所有的任务管理,都是在做行动管理,而不是任务管理,或是换一种说法,大部分人的把任务管理软件用错了! 因为大部分人,没分清楚,什么是任务,什么是行动!

怎么界定任务和行动?

其实很简单,任务,在我眼中的定义,就是一个可以产生具体成果的东西,什么是具体成果?

  1. 给某某打个电话,与 xxx 沟通,这些都不叫成果,成果就是,把合同签下来,这就是成果
  2. 比如购买家具的项目中,网上挑选冰箱,并下单,这也不叫成果,成果是,冰箱到家,并且可以用起来 ( 比如你有可能会退货 )

很多人会说,这不等于白说,这不就任务分解吗?

没错,这些道理大家都懂,但是任务分解完了以后,会变成什么?你会看到一堆的行动清单,比如

  1. 给 xxx 打电话
  2. 到网上挑选冰箱
  3. …..
  4. ….

有十个行动,然后很可能你会挨个去做, 最后你会发现,没有一个完成,冰箱订购了,然后没有后续,给 xxx 打电话,就没继续跟进合同的事情…

不要觉得这没什么,大部分的人会犯错…而且这样的错误非常普遍…不信你们公司在开一次周会,你会发现,大部分人回报的全部是事项…..很少有人会汇报成果…

用OKR来管理任务

最好的任务管理体系,我觉得就是 OKR,可以做到很好的以少驭多的效果,比如:

每天的任务,通过看这个整体的看板,然后再点击下去,继续看到具体的任务

这份任务,是有一个具体的成果,以及对应的细项,但是这样和普通的任务管理最大的区别在于 : 每次你都能看到任务具体的成果以及意义!甚至更重要的,任务的上下文! 很多任务管理软件一个很蛋疼的东西,就是完成了任务,就不见了 ( 但是 Omnifocus 可以通过设置来解决这个任务 )


这样,的效果,可以说就像开车一样,看下全局->关注一下细节,然后在再缩放回全局,这样一来一回,不断的切换,会保证你始终行驶在一条路上….,而且每天的路线可以不断的调整…


这是从一个比较简单的任务管理体系入手,我执行10多天下来,感觉良好!正在摸索一套流程….

这种 OKR 我们做很多,但是区别于任务管理最大的区别在于,这份 OKR 我每天上班都要看! 这相当于我的一张导航图,把视角放到的导航图,这里面的任务,从我定下来 ( 一周前,到现在,做了 5 次的调整 )