1979年3月28日凌晨4时,在宾夕法尼亚州三里岛核电站,发生了美国历史上最严重的核事故,这也是人类核能史上第一次反应堆芯融化。幸运的是,事故没有造成很严重的后果。
社会学教授查尔斯·培洛受任调查,他发现:三里岛事故不是由明显的人为过失造成的,而是因为一连串小失误:“供水系统问题、卡住的阀门,还有模棱两可的指示灯”。
换句话说,不是系统中的某个部分出了问题,而是各个部分之间的联系和相互作用,让小问题变成了人们不能理解的事故。
培洛和他的团队随后又研究了许多别的事故,从中总结出一个理论,他认为有两大因素促使系统发生这样的崩溃:复杂程度和紧密耦合程度。
有的系统是线性的,比如工厂中的装配线,各个部分按照一定的顺序进行,当某个环节出现问题了,我们能够直观地发现;有的系统是复杂的,像核电站,更像是一个编织在一起的网络,当某个部分出了问题,人们很难弄清楚,到底是网络中的哪个地方存在异常。
紧密耦合,是来自于工程学上的术语。在一个紧密耦合的系统中,各个部分之间很少存在缓冲地带,如果一个部分出了问题,很快就会波及到其他地方。换句话,就是系统的容错率很低。核电站是一个典型的紧密耦合系统。当问题出现时,人们没有办法让系统暂停,必须在有限的时间内找到问题、解决问题,才能防止重大事故。
培洛在1980年代绘制的复杂—紧密耦合模型中,只包含了图中这几个领域,但是在今天,很多领域都变成了复杂、紧密耦合的系统:我们每天乘坐的地铁、用的城市自来水、金融系统、社交媒体、医疗体系等,都随着科技发展越来越复杂,甚至超出了人类的控制能力。面对这样的世界,我们应该如何来应对呢?
针对系统性崩溃事件,克里斯·克利尔菲尔德和安德拉什·蒂尔克斯克合作写了《崩溃》这本书。克里斯是金融从业人员,他目睹了雷曼兄弟银行的倒闭和08年的金融危机,同时受飞行员训练经历的影响,他开始对如何避免系统性崩溃产生了兴趣。安德拉什则一直在研究企业经营为什么会随着复杂性增加而日益艰难,他首创了“组织机构灾难性失灵”课程,被称为是“世界前 40 的 40 岁以下的商业教授”。
在《崩溃》中,两位作者首先探讨了科技进步的悖论:系统越来越强大,但同时也增加了小失误造成的崩溃事件;然后在第二部分——本书的主体,探讨了我们如何降低系统的复杂性,如何从认知心理和组织行为的角度来应对系统崩溃。
一 降低系统复杂性
01 减少不必要的安全措施
“安全系统会降低安全”。这一说法违反了我们的常识。安全系统本意是为了增加系统安全性,但我们忽略了,安全系统也会增加系统的复杂性。查尔斯•培洛认为,“在紧密耦合的复杂体系中,安全系统是造成灾难性失败的最大根源,没有之一。”如果没有作为安全系统的第二套信封,在89届奥斯卡金像奖现场,很可能就不会出现《月光男孩》的乌龙事件。
02 增加系统透明性
波音737采用传统的舵轮来驾驶飞机,舵轮设计既笨重,又占空间。空客A330对操纵杆进行了升级,采用优雅的游戏机式的控制杆,不仅操作方便,还节省了大量的空间,一经面世就得到了飞行员们的喜爱。然而,这个特点却成了2009年法航和2014年亚航空难事件的原因之一:驾驶飞机的飞行员操作失误,而另一个飞行员没有及时发现。
传统舵轮虽然笨重,但是正、副机长前面的两个舵轮形成了一个联动装置,一个飞行员推动其中一个舵轮,剩下的那个舵轮也会跟着动作。这让两个飞行员都知道,对方在进行什么操作,也能及时发现对方的失误。在某种程度上,舵轮增加了飞机驾驶过程中的透明度,让发生的情况一目了然。
03 示警系统分级
巴勃罗·加西亚是一个十几岁的少年,在住院期间因为吃了护士给的38.5粒抗生素差点丧命。这并不是因为系统没有示警,而是因为警报频繁出现,开药医生以为这又是一次无关紧要的警告,而删去了警示。
在出现错误之后,我们往往会增加一道警示来增加系统安全性,然而过多的警示反而增加了操作难度,降低了人们的警惕性。对此,示警原则应遵循尽量简单有效的原则:
首先,去除不必要的警示;其次,建立示警层次,将留下来的示警按照重要程度进行显示,防止操作人员被无足轻重的警告打扰,而忽略了重大警报。
二 审视不祥之兆
系统崩溃之前,会有一些微小的迹象出现。2009年6月22日,发生在华盛顿的地铁相撞事故就是忽略信息的结果。在事故之前,工人们向操作中心报告:传感系统没有发现一列经过的列车,随后,操作中心发布了一项工作指令,却没有注意到指令并未被执行。如果这个重要的细节没有被错失,这场事故很可能就不会发生,也不会有9人失去生命。
在如何避免小问题造成的系统崩溃方面,民航业是各领域学习的先驱,有一个学习错误的过程被称为“异常现象化”,主要有五个步骤:
01 搜集数据:既要包括未遂事故,也包括错误事件。
02 修补:针对搜集到的潜在问题,寻找改正的措施。
03 找出根本原因:针对潜在问题深入研究,理解和应对问题的深层次原因。
04 分享:将找到的问题和改进措施,在整个系统中进行分享,防止同样的错误再次出现。
05 审计:确认采取的措施对需要解决的问题切实有效,并防止解决方法让复杂系统变得更糟。
航空业通过公开分享错误和未遂事件,建立起一种从错误中学习的文化,这会鼓励行业中的人从错误中学习和成长,防止小错误发展成大事故。因此,建立一种包容错误的组织文化,能帮助我们预防崩溃事件的发生。
三 获得多角度思维
01 打破“权力腐蚀”,建立异见文化
有一项研究显示,当人们拥有某种权力,或者只不过拥有权力感的时候,他们更可能漠视他人的意见,忽视他人的感受,更可能随意打断别人说话,不愿意接受建议,即使是专家的建议。这种权力腐蚀现象,会造成最能发现系统问题的一线员工,没有动力向上级汇报发现的问题,因为他们认为,上级不会听从他们的建议。
为了改变这种情况,可以采用软化权力的方法。肯·弗瑞曼担任波士顿大学商学院院长时,发现自己的办公室过于宽大,并且远离学生和教员,于是他主动要求搬到人来人往的透明小办公室,这样他每天都能接触到自己的学生、教员和员工,拉近了彼此之间的距离。
还有另一种方法,是建立开放型领导模式,即让团体中的其他成员先陈述意见,领导者最后再发表意见。这种做法能防止权力带来的意见附和,也能够激发成员的积极性,想出更多的解决方案。
02 善用减速器:多元化
麻省理工教授埃文•阿普费尔鲍姆认为,多元型市场要比单一型市场准确得多。因为“在单一型市场中,如果其中一个人出了错,其他人更有可能照搬他的错误,他们过分相信彼此的决断,在多元型市场中,错误扩散的可能性要小得多。”
这一结论,不仅被很多实验结果支持,而且也有心理学上的支持:人们通常会更信任和自己相似的人做出的判断,对与自己不同的人则持怀疑态度。
在单一型环境中,人们容易产生从众心理,一旦主流观点出现了错误,人们较少地进行独立判断和产生怀疑,反而会跟随错误的观点,这会导致错误在群体中迅速蔓延。
多元化则不同,人们会因为不同而产生排斥、怀疑、批叛精神,这虽然会引起摩擦,但是也让人们更容易说出“皇帝什么都没穿”的实话。这在处理复杂系统问题时,价值非凡。因为怀疑精神的存在,致命的小错误将有机会被发现、被重视,并得到进一步的调查,这有助于预防系统性崩溃。
03 引进圈外人视角
中世纪的意大利,有一种政官制度,是从另一座城市招募首席地方法官,担任公正的仲裁者,并定期进行轮换。这就是引进了一种圈外人视角。一方面,圈外人不受圈内的利益纠结;另一方面,圈外人能带来全新的观点,我们习以为常的事情,可能在圈外人看来就存在问题。
最近热播的HBO迷你剧《切尔诺贝利》中,白俄罗斯的核物理学家卡尔梅克,就扮演了圈外人的角色。乌克兰的列加索夫是位优秀的物理科学家,为了扑灭燃烧的核反应堆,他采用了沙子和硼来进行灭火。这个方法本来是有效的,然而他忽略了一个重要问题:原本应该是空的水箱已经被消防员注满水。作为圈外人的卡尔梅克,意识到这问题,为了阻止核电站发生热爆炸,她只身前往切尔诺贝利。在整件事情中,卡尔梅克是完美的圈外人,她具备专业的核物理知识,同时,她又能从另一个角度来发现当事人无法发现的问题。
四 应对意外
01 克服计划持续偏见
航空事故中有一个重要的影响因素,就是“计划持续偏见”。这说的是在明知道原计划有问题的情况下,仍然选择继续执行,没有停下来反思计划的不合理性。我们在平时的工作中,经常会发生照做不误的情况,明知道工作计划有问题,还是硬着头皮做下去。
要克服计划持续偏见,不只是一个人的责任,而应该在整个组织层面来传递这一信息:如果继续执行会带来问题,那就停下来,或者告诉上级应该停下来。
02 “监控—诊断—执行”循环
2009年,美国玩具公司美泰公司在上海开办了芭比娃娃商店,他们原以为中国孩子更喜欢亚洲特色的娃娃,然而销量结果很惨淡。美泰公司没有继续坚持这一战略,而是对中国市场重新进行了评估,推出了一款“小提琴独奏家”的金发白肤芭比娃娃,受到很多中国虎妈的喜欢。
美泰公司在这个过程中,执行了一个循环:监控中国市场——对现状做出诊断,提出新的改进策略——执行新战略。美泰公司没有一味坚持原有计划,也没有盲目退出中国市场。而是在这个循环中改进自己的决策,实现了最初进军中国市场的目标。
03 交叉训练
特警在遇到和模拟不一样的情况时,仍然能做出专业的反应,有条不紊,一个重要的原因就是交叉训练,即使新警员不打算成为狙击手,也需要学习如何使用狙击步枪,因为作为一个团队,他们需要明白狙击手是如何工作的,这样才能在复杂的现实环境中,作出恰当的反应。
在大多数公司中的工作,更强调专业性,其他部们不明白财务报销为什么要求那么多,财务也不知道什么操作会导致IT系统的崩溃。这导致了工作中的低效和因为信息不对称引起的问题。一个公司要提高组织有效性,就需要让各个部门了解其他部门的工作内容,以及自己的行为会如何影响到他人。
在一个复杂的系统中,如果成员缺乏交叉训练,可能会出现灾难性的后果。就像2012年脸书IPO事故,纳斯达克管理层让程序员删除一个有效性核查程序,导致了纳斯达克无意间卖出了1.25亿美元的脸书股票,不仅损失重大,还需要接受诉讼。
风险控制专家本·伯曼在讲座中说:“系统崩溃的代价之高令人瞠目,但很容易被人低估,而你很可能会在职业生涯或者个人生活中面对这类事件。我认为,好消息是,你能让事情有所改变。”我想,这就是《崩溃》这本书的意义所在,帮助我们了解生活的世界,并为降低这个世界的系统性崩溃作出改变。