最近,光电总局出台的手游审核流程,在业界沸沸扬扬的。而在最近工作中我又是被用户产生的spam内容所困扰。说到解决方案,应对spam内容,几乎也只有考审核思路去解决。
应对这个问题,我冒出来的第一个第一个想法是审核“人(或者组织)”本身的资质,需要用户去完成某种资质认证(如营业执照,资格证。)后才能拥有在平台产生内容的权限。但是当我把这个想法提给mentor时,得到的反馈确是:现有我们确实是有了一整套的资质验证体系,但是这部分还是很容易搞定的,这只是给不良客户产生spam内容提高了门槛而已,可以考虑是不是在用户产生的内容本身做审核,例如敏感词之类的东西,但是目前蹦出的想法也只是敏感词系统,但是你也知道中文博大精深,道高一尺魔高一丈,你定义了一个敏感词“呵呵”,人家用“口可口可”代替,你一点办法也没有。
后面细想了一下,关于我和mentor的想法,其实只是审核制度两个方面而已。我的想法是审核人,认为一个通过考核的人,做出的动作也会是合规的。而mentor的想法是审核事情,审查行为的产生的结果,及时制止不良结果的扩散,所谓对事不对人,对的人也可能做出不对的事情,但并不是说你这个人有问题。
关于这两个方面,我认为并不存在一个绝对优势的方法,有时也需要将两者结合。当然,有时这可能是偷懒等种种原因造成的,就像手游的审核一样,首先需要你拥有出版的资质(针对人本身的审核),然后才跟你谈具体游戏的审核(对人做之事的审核)。
这两种方法的共同目的都是为了制止人产生的不良行为结果的流出。一个审来源端,一个审流出端。
针对“人”的审核
这类审核制度的生效需要良好的监督机制,例如外卖平台审核营业执照,由于餐厅产出的是实物,对产出物进行枚举的审核检测是不可行的。外卖平台采取对“人”的审核,其依据便是在餐饮行业,营业执照背后是有一套可依靠的监督机制(当然来自政府的监督管理机制不完善,违法成本低等等便是另外一个故事了)的。当互联网产品采用主要对“人”的审核方法时,如果背后没有可以考的监督机制,那基本需要自建一套监督机制(如举报制度)。这个做法的核心即是,需要一套强有力的监督机制(包含有效的惩罚措施)。
针对“事”的审核
首先就数量级上来说,"事"的数量是数倍于“人”的。因此,要做到对“事”的全面审核,要么可以承受高的资源成本(大部分可能是人力成本),要么可以有一套足够效率的方法来审核流出端(依靠机器审核,虽然,机器学习近年有较大的发展,但是目前依然不是很智能)。例如,app store对上架应用的审核。枚举审核虽然,做到了严格控制流出,但是在没有足够智能的机器方法之前,其消耗的成本一定是较高的。