皮皮范文网欢迎您!
首页 >  实用工具 >  文摘 >  生活 >

到底谁不靠谱

为什么专家变“砖家”

几年前,媒体曝出过“把工业明胶当食用明胶添加”的事件。一个电视谈话节目中,一名食品专家信誓旦旦地说,用工业明胶绝对不可能做出果冻的品相。可当场有记者放出亲身暗访的镜头,地下工场用工业明胶做出了外形足以以假乱真的果冻。

应该是这个专家的经验落后于“科技”发展了,但他的表现很有趣:虽然睁大了眼睛,但始终面帶微笑,嘴里说“不可能的,这是不可能的”。

2008年金融危机时,美国有个麦道夫的“庞氏骗局”被揭穿。诈骗手段其实很老套——募集新投资者的钱来偿还老投资者。涉案金额巨大,而且受骗者都是各界名人,其中居然有一位专家中的专家——美联储前主席、大名鼎鼎的格林斯潘。

专家也会在自己熟悉的领域犯错,这一点大家都能理解。但网络时代,专家名声真的是江河日下,变成“砖家”,远远超过了“名人效应”所能解释的范畴。

为什么这些“砖家”常常让人觉得很不靠谱呢?到底是专家的问题,还是普通人自己的问题?

到底谁不靠谱

有一次在网上看到视频,某地因液化气泄露造成火灾,奇怪的是,消防队的高压水龙头虽然开着,却全部浇在大火周围,根本不像是在灭火。于是下面就有网友大骂消防队不专业,水龙头都浇不准。

其实这才是专业方法。气体泄露造成的火灾在没有找到泄露点前,必须要留着火头,把气体消耗光,把水浇在起火点周围是为了降温,防止爆炸。

网络时代的一个特点是有大量现场的照片和视频。信息透明看起来是好事,但问题是,普通人在生活中大多靠直觉判断。靠直觉判断的好处是,速度快,消耗大脑资源比较少,用来对付日常工作和生活中的琐事绰绰有余;可一旦进入专业领域,事情跟我们想象的不一样,跟影视剧里不一样,就很容易出现“直觉性偏差”。

专家在自己的领域内,用的是基于逻辑的科学分析,绕过了“吃瓜群众”的直觉判断盲区,反而让普通人误认为“专家不靠谱”。

比如有一个统计,生活条件越好的地方,癌症患者的比例反而越高。这个数据难免让普通人觉得是在胡说八道,但在专家看来却很好理解:与癌症最相关的因素不是生活质量,而是年龄。超过50岁,得病率直线上升,而生活条件好的地方必然人均寿命长。

在专业领域内产生错觉的另一个原因是,很多专业领域内的数字是有欺骗性的,偏偏大部分普通人都不擅长数学,或者懒得去算一下。

很多人去做一种叫“低剂量螺旋CT”的早期肺癌筛查,因为这种检测的特异性和灵敏度都是99%。也就是说,有病的人99%会被查出来,而没病的人99%也会被排除。听起来很不错吧?

可是,医学博士、科普作家“菠萝”在他的《癌症真相:医生也在读》一书中认为,就算这个数据是真的,普通人也没必要做,除非是像几十年的“老烟枪”这种高风险人群。

让我们来跟“菠萝”一起做个简单的算术题:假设10万个人做测试,有多少人会被查出有问题?

第一部分,有病,且查出有病的人数:假设肺癌得病率为千分之一,那么10万人中有100人生病,99%的被查出,就是查出99个人。

第二部分,没病,但查出有病的人数:剩下的99900个实际上没病的人,因为1%的误诊,就是999个人被误诊癌症。

最后,求出误诊率:被检出999+99=1098个有问题的人中,其实有999个人是误诊,被误诊的概率高达91%。

而实际上,很多医生都认为这个筛查的特异性和灵敏度只有90%,那么误诊率就高达98。3%!再考虑到这种检查的高辐射对人体的影响,非高风险人群做这样的检测是得不偿失的。

专家忽视了人性的弱点

不过,在上面的案例中,你可能会想,没有癌症却被诊断出癌症还好啦,重点是——有癌症的人,99%都能被诊断出来。

这正是专家和普通人看法有分歧的第二个原因。专家站在第三者的角度分析,忽视了人性的弱点,反而给人一种“站着说话不腰疼”的感觉,而普通人如果涉及切身利益,感受就完全不同。

假如你午饭时去吃20元的套餐,一个同事告诉你,他有一张满40元减20元的优惠券,20元刚好可以买两份,但他有一个条件——他只想付1元钱!

从理性的角度分析,你应该接受,相当于你付了19元,还是赚了。但事实上,你十有八九会断然拒绝——凭什么啊,我就算多付1元钱,也不愿接受如此不公平的分配方式。

现实中,典型的例子是“该不该判人贩子死刑”的网络大讨论。

专家的想法很有逻辑:第一,如果贩卖儿童就被判死刑,那么人贩子就会倾向于在逃避追捕中,置儿童的性命于不顾,反正都是一死;第二,大量司法实践证明,加大刑罚力度并不会降低犯罪率。

这个逻辑大部分人其实都能理解,可就是感情上无法接受。

如果说上面的例子中,普通人反对专家,仅仅为了寻求一种情感宣泄,那么在下面的例子里,普通人往往明知自己不理性,也要坚持。

还是以医生为例。假如某种重症有两种治疗方案:A方案成功率是50%,另外50%没有任何变化;B方案成功率高达90%,但有5%当场死亡的风险。

作为医生,站在第三者的立场上,肯定觉得B方案更好,手术当然少不了风险。但患者就不一定了,5%的死亡风险,对绝大部分人而言,还是太高了。

这就是行为经济学上说的,“大部分人都是风险厌恶者”。为了避免死亡、破产一类的“绝对风险”,宁可放弃“风险收益比”更好的方案。

所以作为专业人士的医生,不仅要懂医学,更要懂人心。美国医学院入学考试从2012年开始,加入了大量人文内容;哥伦比亚大学医学院甚至把“小说阅读与讨论”作为必修课,就是希望未来的医生们不但能做诊断,还能与病人沟通,让病人理解自己的病情,做出更好的决定。

专家的盲区:极小概率事件

前面说的例子都是普通人的问题,要么不科学,要么不理性,好像专家永远不会犯错。当然并非如此,专家最熟悉的专业领域,正是他们的盲区所在。

美国有个议员,上班途中因超速被警察攔下,结果被关进了精神病院,费了老大的劲才被弄出来。媒体报道之后,舆论哗然,纷纷指责警察滥用职权。

但实际上,这件事没那么简单。这个议员是女性,又是一个黑人,黑人女议员在当时是很少见的。最要命的是此人为了证明自己确有急事,说自己马上要跟总统会面(实情如此)。

设身处地地想一想,如果你是一个拦截超速驾驶的警察,从车上下来一名黑人女性自称是议员,并且情绪激动地说自己马上要见总统,你会不会怀疑她有精神病?

专业人士也会被直觉误导,因为他们有一套处理突发事件的程序。一些被认为基本不会发生的极小概率事件,常常会被解释成其他出现概率更高的原因,专家的自信又让他们比普通人更容易在这里犯错。

最典型的案例是“美国长期资本倒闭事件”。

这是一家对冲基金,创始成员中有两位诺贝尔奖得主和一位美联储前副主席。这些人可不是来撑门面的,他们建立基金的目的就是为了验证自己提出的“高杠杆加固定收益套利模型”的获利能力。这个经过数学计算验证过的模型果然非常有效,前4年的回报率平均超过40%,一下子和老牌的索罗斯量子基金一起跻身“全球四大对冲基金”。

更牛的是,长期资本几乎没有大的回撤——这正是问题所在。任何一个赢利模式都是有缺点的,要么回撤大,要么回报低,要么市场机会少。你想,如果这个模型真的能长期有效,那十几年下来,世界上所有的财富岂不是全部归他们所有了?

问题事后才浮出水面,这个模型的有效性是建立在忽略极小概率事件的基础上的,而这4年,金融市场刚好风平浪静;但盈利建立在超高杠杆之上,为未来埋下了祸患。

长期资本在第五年就等来了它的“极小概率事件”——1998年的俄罗斯债券违约事件。谁也不会想到,昔日的霸主竟然会债券违约。短短150天,“长期资本”巨亏,并引发了一场波及全球金融市场的大地震。

俄罗斯债券违约被长期资本认为是“100亿年才会出现一次的事件”,实际上,后来的20年,类似的危机至少发生过两次。所以,“极小概率事件”并不能仅仅用数学去判断,它本身具有不确定性,忽视它们,往往会导致严重后果。

专家们忽视“极小概率事件”还有一个原因:如果考虑这些因素,做事情的成本可能会高得惊人,预算可能永远通不过。福岛核反应堆就是一个惨痛的例子。

过去45年间,福岛最大的地震是8。0级,所以日本人就按8。5级的防震标准来建造核反应堆。事实上,福岛很可能发生过9。0级地震,而这个信息被专业人士“当成极小概率事件”无视了,最终造成巨大的灾难。

别对答案太在乎

无论是普通人,还是专家,思维上都有自己的盲区。普通人的盲区是“过于依赖自己的直觉”,专家的盲区是“过于相信自己的理性和经验”。

这两种思维盲区的产生,又有一个共同的特点:这两类人都过于在乎现在就得到一个答案——因为专家如果没有这个答案,他们很可能什么事都做不了;普通人如果不立刻得出答案,日常决策成本就可能高得惊人。

这就导致我们把全部注意力集中在那些最有可能发生的结果上,从而忽略了其他的可能。

食品添加剂专家觉得把工业明胶当作食用明胶很难,忽略了技术的进步。

普通人过于希望找到一个准确率很高的癌症早期筛查方法,忽略了数字本身的意义。

福岛的核专家太希望证明这里可以建核电站,忽略了小概率事件的不确定性……

上学时,我们都有做选择题的经验:不能因为一个选项看起来是正确的,就不看其他选项。这个经验在日常生活和工作的决策中同样重要。