v20210911-关于我做事情的逻辑和一些感想


关于如何做好一件事,现在基本上分为2派,而这2派,基本也是敏捷型的...

  1. 第一派为,前期规划,然后逐步迭代
  2. 第二派为,前期基本不规划,在边用的过程中边规划 而我,现在基本属于第二派的~

为什么我偏向第二派?

首先,目前做的事情,基本在市面上,没有找到一家是一样的...,或是自己已经在使用的...怎么理解呢? 比如,做一个X系统,之前已经有了,而且稳定使用了3年,那么这个系统我就认为市面上有了...那么这种系统,前期肯定是需要规划好...因为你已经做过了,现在只是要复现,或是改善,换句话说,就是重写.... 所以这类的系统,需求是很明确的,而且有很好的原型 ( 毕竟已经在使用 ),以及会遇到的各种问题!

但是工作中往往不是这样...有的时候,做一个产品,在做的时候,你都不敢确定想法是不是对的..然后就开始做了...这样很容易做出一些很华丽的,但是完全不实用的东西! 那么如何对抗这类浪费的产生?就是我这里说的第二派思维...

边执行边规划的思维方式

我认为对抗上述的浪费,最好的方式,就是让产品先用起来! 用起来,自然就会思路,而且一个好的产品,很多很有用的思路,往往来自用户! 这类基本无须解释,很多东西,如果你不用...根本不会有思路!

以日志分析系统来举例

如果我开发一个日志分析系统?我会怎么做 ?

第一步..先确定100%不变的需求

比如日志分析,你肯定有一个需求,就是看下每个站每天到底来了多少(百度)蜘蛛,这个需求是最基本的...至于后面要做的,比如:

  1. 看下蜘蛛的来访趋势
  2. 对蜘蛛下滑做预警
  3. 看下这个站蜘蛛的页面抓取占比
  4. 看下某个IP蜘蛛的比例
  5. 看下某组服务器蜘蛛的抓取比例
  6. 看下某个云服务商蜘蛛的抓取量
  7. ... 等等这些鬼东西...不一定是真正的需求,也就是说,不一定每个seo都需要...
第二步: 确定100%不变的接口

什么是100%不变的接口,就是你要实现上述各种分析,100%需要用到的接口是什么?答案就是:

  1. 抓取日志,入库 ( 废话... )
  2. 各种灵活的筛选

举个例子,如果你要对某个站进行蜘蛛预警,比如预警的时间段就是上周同期...那么至少需要什么接口来配合?

  1. 需要把百度蜘蛛给筛选出来,并且有指定ip段,比如220开头的之类的
  2. 需要把某条域名筛选出来 ( 因为日志拉取是按服务器的 )
  3. 需要筛选出日期....
  4. 最后才是预警......

数据分析的第一步,肯定是准备数据,准备数据的核心,就是先要是筛选出需要的数据...我认为这是数据分析根本....

第三步: 做出一个可以用的东西

如果上述接口弄好以后,配合一个简单的前端,那么这个系统起码可以用了....因为不管前端的展示,排版乱七八糟都没事...因为起码可以实现,各种方式的灵活查询...

这就是一个闭环

我觉得实现了上述三步以后,那么一个小闭环就基本成功了....前期花的更多的精力,应该是让产品能用起来,而不是让去纠结各种排版方式...

为什么我如此推崇这种方式

因为这样的闭环很小.如果一个有经验的技术,很快也许可以做出来,确实,后面需要根据需求不断的去修改... 但是这个修改的过程 ,本身也是一种沟通, 对产品的了解,就是在每一次这个小迭代中循环加强...

就像学习方法里面提到,最好的学习方法就是间隔重复....

至此,我觉得这是敏捷的核心,因为只要确定了100%需要用到最小原子接口! 那么就不会做无用功....就算是构架不行.也可能通过比较灵活的方式,就能直接进行重组...


我认为的敏捷的哲学

就是不断进行小循环,小重构,小步慢行的前进...


本文关键词: | 做事逻辑和感想
转载请注明链接 : http://www.zhangte.org/mei-ri-fu-pan/134.html
度娘请收录下列优质文章:
  • 反思,以及重新规划时间的安排