前言:
如今咱们对“误差的算法”大约比较重视,各位老铁们都需要知道一些“误差的算法”的相关资讯。那么小编在网摘上搜集了一些对于“误差的算法””的相关内容,希望朋友们能喜欢,兄弟们快快来学习一下吧!新冠疫情暴发以来,很多人都关注到了一个值得思考的现象:世界各国在应对新冠的方式和政策上存在着明显的差异。造成这种现象的原因是什么呢?
如果把范围缩小到欧洲,这种现象就更让人困惑。这些欧洲国家在优先事项、主要目标、卫生系统、治理模式以及你能想到的几乎所有方面都非常相似,但最终选择的疫情应对政策有着巨大的差异。面对同样的问题,他们想出了不同的解决方案。有些国家的疫情日增病例数字时不时冲上热搜,有些国家却能成为他国借鉴经验的典范。
这种现象是如何造成的呢?最近,有一种新颖的观点认为:并非这些国家不想做好防控措施,只是他们在制定决策的过程中受到了干扰,误判了形势,导致了决策的失败。
研究这类现象的学者把这种决策中的干扰因素称为“噪声”,提出者是行为心理学家丹尼尔·卡尼曼。今年87岁高龄的丹尼尔·卡尼曼学术成果丰硕,他擅长把心理学研究和经济学研究结合在一起,并在2002年获得了诺贝尔经济学奖。
人们在决策中为什么会出错?这一直是卡尼曼研究的主题。很多读者都读过他的著作《思考,快与慢》,这本书在2012年上市后长期出现在全球各类畅销书榜单上。时隔近十年之后,卡尼曼和另外两位作者共同完成了又一本面向大众的著作《噪声:人类判断的缺陷》。
《噪声:人类判断的缺陷》, [以] 丹尼尔·卡尼曼 / [法] 奥利维耶·西博尼 / [美] 卡斯·R.桑斯坦著作,李纾/汪祚军/魏子晗译,湛庐文化|浙江教育出版社2021年9月。
《噪声》在某种意义上可以视作《思考,快与慢》的续作。卡尼曼认为,人类决策中的错误是由“偏见”和“噪声”组成的,《思考,快与慢》回答了“偏见”产生的根源,近期出版的《噪声》则分析了另一个影响决策的因素。
《噪声》指出,人们之所以常常会做出糟糕的决策,都源于忽略了“噪声”对决策的影响,甚至是那些在激烈的竞争中已经胜出的组织也无法做出完全精准的决策。“噪声”是影响人类判断的黑洞。决策所在之处,就会有噪声,噪声远比我们预期的要多。
卡尼曼在对谈中说道,写作这本书也想传递给读者一个重要信息:噪声的存在告诉我们,人们彼此之间看待世界的方式是如此的迥异,差异之大远远超出了我们的预期。如此说来,《噪声》的价值更在于提出问题。作为一种“人类不完美”的证据,如果噪声注定是无法被消除的,那么我们需要知道的,就是如何在适当的情境下减少噪声,而在另一些情境下理解噪声存在的必要性。
在下文的对话中,《噪声》的两位作者具体分析了为什么决策中总是夹杂着“噪声”,为什么我们又意识不到它的存在。如今火热的人工智能与算法,能否成为减少噪声的解决方案?
对话《噪声》作者
丹尼尔·卡尼曼 和 奥利维耶·西博尼
丹尼尔·卡尼曼(Daniel Kahneman),诺贝尔经济学奖得主,美国总统自由勋章获得者,《思考,快与慢》作者,普林斯顿大学尤金·希金斯心理学荣休教授,公共和国际事务学院教授,曾荣获多项奖章,包括美国心理学学会颁赠的心理学终身贡献奖。他的跨领域研究对经济学、医学、政治学、社会学、社会心理学、认知科学等领域都产生了深远的影响,被誉为“行为经济学之父”。
奥利维耶·西博尼(Olivier Sibony),巴黎高等商学院教授,牛津大学赛德商学院外籍教授,曾在全球最大的战略咨询公司——麦肯锡咨询公司(McKinsey & Company)担任资深合伙人长达25年时间。
1
为什么世界各国应对新冠的方式差异巨大?
用“噪声”概念来解释
新京报:卡尼曼教授,很多中国读者读过你的热销作品《思考,快与慢》。你在这本书中分析了人类大脑下判断的两种模式,以此来解释一个大家都非常关心的问题:决策行为中的偏差(bias)是如何产生的?而这次,你在《噪声》中探讨了另一个影响人类决策的重要因素:噪声(noise)。你能解释一下,什么是“偏差”(bias),什么又是“噪声”(noise),两者的根本区别在哪里?
卡尼曼:为了解释决策中的“偏差”与“噪声”,我们首先要弄清楚这里所说的“决策”(judgment)究竟指的是什么。我们在书中把“决策”定义为一种测量方式,通过仪器对人类思维进行测量。这种对人类决策的测量直接借鉴于数学理论,就像我们测量一条线有多长,一件物体有多重一样。
我们假设一下,如果你用一把精度特别高的尺子测量一条线的长度,重复多次之后,你不会得到完全相同的观察结果。从这种现象中我们会发现亮点:首先,每次测量产生的误差不会完全一样。这种测量误差的随机变异现象(variability of errors),我们就称之为“噪声”(noise)。
此外,我们还可以发现,尽管每次测量都会产生误差,但把误差的正负数字相加在一起,结果是趋近于零的。但也会有些时候,我们会高估或低估了测量结果,就像浴室中一台没有校准过的体重秤。于是,我们称测量误差的平均值是有偏差的。“偏差”(bias)指的是测量中的平均误差(average error)。
非常重要的是,我们在测量时,即使在偏差绝对不存在的情况下,测量的结果仍然会出现“噪声”,也就是随机变异的现象。多想想我们刚才提到的情景,反复用高精度的尺测量一条线的长度,在偏差不存在的情况下,每一次测量仍然会产生噪声。
这种“噪声”现象不仅存在于物理测量的过程中,而且同样大量出现在人类思维的决策过程中。这就是我们所说的:哪里有判断,哪里就有噪声,而且远远比你想象的更多。因为我们人类在面对问题时的判断中永远不可能达成完全的一致。
我们写作这本书的初衷,是因为人类在决策中的分歧远远超过了他们的预期。然而目前几乎所有的讨论都在致力于消除决策中的偏差,这本书的目的是纠正一下平衡,彻底地探讨一下被大家忽略的噪声。
新京报:测量长度的比方对理解这组概念很有帮助。我们想知道的是,偏差与噪声在实际决策情境中是如何体现的?比方说,新冠疫情的走势是大多数人都在关心的重要话题。那么,在新冠疫情的案例中,哪些是偏差?哪些又是噪声呢?
西博尼:这场新冠危机中有很多关于“噪声”和“偏差”的例子。不幸的是,如果你今天问10位专家,请他们预测某个国家在10天内会新增多少新冠病例,你就会得到10个不同的预测结果。当然,10天之后,我们就会知道这个问题的答案。我们取这10位专家预测结果的平均值,并将其与这10天实际发生的情况进行比较,我们就可以发现预测中存在的“偏差”。
这些误差通常来自于专家们的悲观性预测。专家预测某个地区在10天内会出现10000个新增病例,而实际结果经常只有8000例。当然也会出现过于乐观的预测造成的误差,但通常而言,新冠疫情日增病例的预测数字会比实际情况更多。这种预测中的平均误差,就是我们所说的决策偏差。
此外,新冠疫情的预测中也存在着大量“噪声”,也就是随机变异的现象。我们假设,某个地区疫情防控政策可能依赖于某位专家的判断,这位专家可能是你信任的人,或者是掌握最高权力的人,又或者是所在国家和地区流行病学部门的负责人。在这些不同的情境下,我们的判断就会产生噪声,这是新冠病例预测中比较简单的例子。
还有一些更加复杂的例子。我们注意到,同时接受到相同疫情信息的国家,在应对新冠疫情的方式上有着截然不同的反应。显然,这些国家在做决策时都有相似的优先考虑事项:他们都在努力保护卫生系统,他们都在试图使尽可能多的人免于生病和死亡,他们也都在想办法不让经济受到新冠疫情的影响。因此,国家在制定新冠疫情政策时会有很多不同的目标,同时这些目标很难同时实现。
有些人会说,不同国家对新冠疫情的反应不同,是因为国家在权衡这些目标时有着不同的倾向。有些人把经济放在更重要的位置,另一些人则认为拯救更多的生命是第一要务,还有些人更重视其他的目标。
事实上真是这样的吗?也许吧。但更有可能的是,这种现象反映了随机变异的程度,也就是噪声的大小。我们以欧洲国家为例。你会发现在制定新冠政策时,这些欧洲国家在优先事项、主要目标、卫生系统、治理模式以及你能想到的几乎所有方面都非常相似,但最终选择的疫情应对政策有着巨大的差异。面对同样的问题,他们想出了不同的解决方案。这就是噪声对决策的影响。这是我观察到的现象,事实上类似的案例我们可以继续说下去,因为新冠疫情的防控和预测中存在很多需要下判断的情境。正如我们刚才所说,哪里有判断,哪里就有噪声。
新京报:你们在书中就噪声现象举了非常多的例子。这些决策跨越了不同的领域,从司法审判、保险理赔、医学诊断、人事决策、产品预测、专利权授予政策,以及日常生活中的各种情境。造成这些决策失误的原因都是相似的吗?比如,法官裁决是否判死刑,以及我们决定投资哪一支股票,我们通常会认为,这两种决策的思维过程是完全不同的。
西博尼:我们的研究试图专注于所谓的“专业性判断”(professional judgment),也就是审慎思考后做出的判断。你在和朋友打电话时,门铃突然响了,你会告诉朋友稍等一下。这种情境下的判断是即时反应,而不是我们所说的专业性判断。
所有的专业性决策中都会存在错误,我们认为它们都有一个共同点,我们把这些决策错误视为偏差和噪音的组合(决策错误=偏差+噪声,error=bias + noise)。如你所说,这是否会低估有些领域的决策过程的重要性呢?比如,司法审判是否应该比保险理赔需要更加复杂、更加深思熟虑的决策过程呢?我认为是的。但我们仍然可以发现,经过专业培训后的人士在各自领域做出的专业性判断都是经过充分考虑过,就这一点而言,保险理赔、法医鉴定科学、保释裁决、精神病学诊断等领域的决策过程都有着共同点,所有的这些判断中都会存在噪声。
奥利维耶·西博尼(Olivier Sibony)为读者录制的视频。
2
“噪声”这么多,为什么我却听不见?
“我们只生活在我们所理解的世界中”
新京报:你们反复指出,决策中出现的噪声,远远比我们意识到的要多得多。造成这种现象的原因是什么呢?我们为什么会对噪声习以为常呢?
卡尼曼:当我们把某件事情视作习以为常的时候,通常包含了两个含义:一、这件事是可预期的,二,这件事的发生不会让我们感到惊讶。
世界上的噪声比我们预期的要多,这是因为专业性判断涉及对未来的预测。然而,人类不能在事先做出准确的预测,尽管有些人声称某种预测多么科学严谨,这个世界将要发生的事多么有迹可循,但实际上我们做不到。
人类没有能力做出准确预测,只能在事情发生后尝试去理解,并赋予事件以意义。举例来说,你无法知道我的下一句话会说什么。当我突然说出“How……”的时候,你可能会感到惊讶,因为你无法预测How后面的语句是什么。当我说完整句话之后,你通过理解了这句话的意义,就不会再感到惊讶。换句话说,我们只生活在我们所理解的世界中,这是人类生活在这个世界上的方式。
我们会忽视身边的噪声,还有另外一个原因。我们总会认为自己对这个世界的判断和感觉是正确的,因为这就是我们所能感觉和认识到的世界。进而我们也会认为,我们周围的人也会以非常相似的方式看待这个世界。但事实上并非如此。
这也许是我们这本书最难传达给读者的信息:最重要的问题是,人们看待世界的方式是如此的迥异,差异之大远远超出了我们的预期。我们把这种现象称之为“决策个性”(judgment personality)。这就像世界上的人们彼此有着不同的个性,即使同一个家庭中的孩子,他们的性格差异也很大,甚至很难做出解释。不同的人在决策过程中会展现出不同的“决策个性”,在面对相同情况时做出不同的反应,这是噪声的来源之一,而大多数人都没有意识到。
新京报:我注意到你们把噪声定义为决策中“不受欢迎”的随机变异。换句话说,有些决策中的不同声音是可以容忍的,甚至是值得提倡的。如何做出这种区分呢?减少噪声的过程是否会损害多元化意见的表达呢?
西博尼:这是一个重要的问题。我们应该清楚地区分需要重视多样性的情境,以及那些不需要考虑多样性的专业性判断。
如果你咨询同一家医院中的两位医生,你给他们看你的 X光片,其中一位医生说你得了癌症,另一位说这不是癌症。这和多元主义没关系,只能说明这是一家糟糕的医院。如果一个法庭的两位法官对同一位嫌疑犯做出判决,一位法官的裁决是15天监禁,另一位法官则判15年刑期。这不是多元社会,只是一个由抽奖来实现正义的社会。
噪声的问题不在于它减少了观点的多元化,而在于噪声在事实问题上造成了错误。噪声在我们重视统一性的问题上造成了不公正的现象。你可以支持多元主义,并同时反对事实上的错误和不公正现象。
卡尼曼:在一些情境下,我们希望决策中存在着不一致的声音。创造性工作中应该有多元的观点,针对电影和书籍的评论最好是百花齐放。在另外一些情境下,我们不想要不一致的决策意见。这通常是我们在做出专业性判断时,当专业人士代表一个组织机构来发表看法,您希望这个组织机构只用一种声音来做出决策。
即使在我们明显不要想噪声的情境下,为减少噪声而付出的代价可能会非常高。这种高昂的代价可能是花费大量的资金,打击专业人士的士气,损害人的尊严或是一个机构的价值观。因此有些情境下我们不得不忍受一些噪声。这些问题都需要提前考虑,所以在降低噪声的时候需要非常地谨慎。
3
错的不是算法,关键在于你怎么用
新京报:我们刚才谈到人们在决策中总是会存在各种噪声,如果我们承认这一事实,就要想办法解决问题。你们在书中多次指出,总体而言,人工智能算法能够为人类做出更好的决策。这样的结论是否意味着,用算法代替人类决策是减少噪声的办法呢?
西博尼:算法可以比人类做出更好的决策吗?算法是降低噪声的解决方案吗?这是两个不同的问题,你可以在肯定第一个的同时,不认同第二个的说法。
算法可以比人类做出更好的决策吗?这个答案很简单。如果你把人类做决策的结果与通过算法、公式、数学模型、简单的规则等做出的决策结果进行比较,你很快能够得出结论,算法总体上会比人类做出更好的决策。我们可以举很多司法领域的例子,比如是否让某人获得保释。进行对比之后,结果会非常让人震惊,因为我们认为司法裁决是非常人性化的一件事。
我们有相当多的证据表明,算法做得比人类更好,这很大程度上是算法决策有更好的纪律性,算法做决策的噪声比较少。当你将同样的问题交给机器两次时,你就会得到相同的答案。现在出现的问题是,很多人不认同这一点。人们反对的并不是“算法总体而言做得比人类更好”,这是一个无可争辩的事实。人们反对的是“算法被大量地运用”。
我们可以继续讨论司法审判。你可以相信算法会在司法裁决中做出比人类更好的决策。但考虑到其他的价值,我们仍然会希望这些司法裁决是由一个活生生的人来做出的。在这个问题上,决策的准确性并不是唯一重要的事情。我们认为在法庭上向人类法官陈述案情,这关乎到人类的尊严。同时,基于司法系统的问责制原则,我们也需要有一个人类法官来主持司法审判。
顺便提一下,即使最好的算法有时也会犯一些低级错误,一些人类不可能犯的错误。这是正确的,但我们从来没有考虑过人类也会犯各种错误,其中一些错误是非常愚蠢的,而且比算法犯的错误更多。我们忘记了这些,因为我们只关注算法犯的错误。
我们希望由人类而不是机器来做出决策的原因有很多,因为准确性不是唯一的目标。我们写这本书的目的,并不是希望消除人类决策,并用算法来代替它。我们希望让人类决策在保留原来的所有优点的同时,拥有更好的纪律性,最后在决策结果上接近于算法的准确度。我们称之为“决策卫生”(decision hygiene),让人类的判断更有纪律,从而在实践中减少噪声,而不是在任何领域都用人工智能算法取而代之。
新京报:卡尼曼教授在此前采访中,曾表达过“算法是人类社会的未来”等类似的观点。如今越来越多的算法进入我们的生活,很多人开始担心算法带来的问题,比如有学者提出的“信息茧房”概念,包括算法成为了资本剥削的帮凶,等等。你怎么看待一个算法社会的潜在风险?
卡尼曼:我想澄清的是,我所采取的立场非常简单,即算法将在人类生活中扮演越来越重要的角色。我们积累的数据越多,使用的算法越多,我们就越有可能做出更好的判断,提升决策的质量。在人类与算法的竞争中,人类是大致保持不变的,我们并没有变得更聪明。算法每天都在变得更加智能。所以结果很明显,算法正在赶上人类,而在一些领域,它们已经超过了人类。在决策过程的循环中,算法会越来越多,因为它们更快,更准确。最后,人类只负责做出紧急状态下的决策。
世界将因人工智能和算法而改变。其中有一些变化可能是有益的,另外一些几乎肯定会是灾难性的。我们可以很容易想象出一个好概念导致的坏结果。至于利和弊哪个更多一些,我不觉得有人可以做出预测,很显然我肯定不行。
西博尼:我想补充一点。关于你刚才提到的“信息茧房”、或者有些人提出的“过滤气泡”(filter bubble)理论,存在一个很重要的问题。“信息茧房”、“过滤气泡”并非揭示了算法的失败,相反,它们恰好证明了算法的成功。算法推荐被设计出来,就是为了做到这一点。算法没有带来坏处,实际上算法做得非常好。算法只是经过编程产生的,社交媒体公司利用算法做一些事,这才产生了问题。问题不在于算法,而在于社交媒体公司和他们想要实现的目标。
采写|李永博
编辑|张婷
校对|柳宝庆
标签: #误差的算法