期待获得更多专家见解?

立即订阅55数据月度精选Tea O'Clock

点击订阅

决策过程:概述 - 第 6 部分。人类决策过程与人工决策过程

Sabrine Hamroun
发布于
12/6/2024
了解认知科学系列文章的最后一部分。

你今天与人工智能互动过吗?答案很可能是肯定的,而且是多次。如果你上过社交媒体,读过或写过电子邮件,查看过天气应用程序,听过音乐,或在网上预订过出租车,那么你确实与人工智能系统有过互动。这篇文章也是如此:除非有人直接向你发送链接,否则你很可能是通过推荐系统(人工智能的一种)找到这篇文章的。人工智能的里程碑一个接一个,它已成为我们日常生活的一部分,甚至影响着我们的生活方式。人类与人工智能之间的互动经历了多次迭代,本文将对其中的一些进行探讨。

I- 人类和人工决策:嫡亲还是远亲?

1- 当人工智能研究遇上认知科学

人们普遍认为,人工智能是在 1956 年的达特茅斯夏季研究项目之后创立的。在该项目中,几位科学家和数学家集思广益,研究如何创造出一台能像人类一样思考的机器。从那时起(甚至在此之前),人类决策和人工决策一直是多个领域的研究人员感兴趣的话题。诺贝尔奖得主赫伯特-西蒙提出了有界理性的概念。他的理论指出,作为决策者,人类的理性是有限的,他们往往不会选择最优方案,而是选择在相关情况下的充分方案。西蒙本人是人工智能领域的首批先驱之一。他与他人共同创造了被认为是第一个人工智能的计算机程序-- 逻辑理论家(Logic Theorist)。基于搜索树和逻辑过程,逻辑理论家能够证明 38 个数学定理。

2- 生物和人工神经网络

大脑的生物结构一直是人工智能发展的灵感源泉。例如,两位诺贝尔奖获得者神经生理学家胡贝尔和维塞尔对猫的视觉皮层进行的研究,就为卷积神经网络(CNN)的结构提供了灵感,CNN 是一种广泛应用于图像处理的神经网络,其目的包括预测图像内容。他们的研究表明,当看到各种线条时,视觉皮层的细胞会根据线条的倾斜度、角度和颜色产生不同的反应。CNN 使用滤波器进行模式识别,即允许特定神经元识别像素块中的特定模式(边缘、角度等)。

3- 评估人工智能与人类智能

长期以来,人们一直对创造一种能够像人类一样思考的系统感兴趣。但是,这个项目的核心问题,即 "机器能思考吗?",却因其复杂性而备受争议,并被一些更简单的问题所取代,例如:"机器能做我们(作为有思想的实体)能做的事情吗?"机器能做我们(作为思维实体)能做的事吗?正是为了回答后者,艾伦-图灵提出了后来被称为 "图灵测试 "的方法,即通过测试来评估人们能否区分人类生成的讨论和机器生成的讨论。

本文介绍了另一种评估人工智能 "理性 "决策的方法。本文作者希望确定不同版本的大型语言模型(LLMs)是否会像人类一样容易做出非理性决策。他们向这些算法展示了一套广泛用于评估人类决策的认知测试,如认知反思测试,这是一种用于评估一个人推翻错误的 "直觉 "反应并进行进一步反思的能力的心理测试。结果表明:"'达芬奇'系列模型(GPT-3 和 GPT-3.5)显示出有界推理或启发式推理的迹象,表现普遍低于人类参与者。另一方面,较新的模型(ChatGPT 和 GPT-4)在与人类参与者样本进行比较时显示出超人的表现",论文中如是说。

II- 人机交互:解决决策偏差的办法?

1- 人工智能可以帮助我们克服决策偏见

人工智能已被应用于不同领域,成为帮助决策者做出更好决策的一种前景广阔的工具。换句话说,这项技术可以帮助我们在解读环境数据的基础上做出客观的决策,因此可以帮助人类决策者在决策过程中超越任何启发式方法。 

以医疗领域为例。医生每天要处理大量信息并执行多项任务(有时是并行的),精神上可能会疲惫不堪,他们的分析可能会出现偏差。例如,他们可能会受到确认偏差的影响。当我们选择和解释信息的方式能够证实我们的信念时,就会出现这种偏差。

这可能会导致医生误解医学分析,并将注意力集中在证实其所选诊断的要素上。已经出现了几种基于人工智能的解决方案来帮助医疗诊断。例如,通过图像识别、分类和自然语言处理,人工智能可以分析不同的医疗数据点,从而提供更 "客观 "的医疗诊断。 

2- 但人工智能本身也会有偏差

虽然有人说,人工智能可以完善决策过程,成为客观高效的决策者,能够在短时间内分析大量数据,但一切并不像听起来那么完美。事实上,人工智能本身也可能存在偏差。 

人工智能模型可能会因为用于训练的数据集而产生偏差,例如,当数据集在预测类别之间不平衡时。考虑一个旨在预测消费者是否会流失(停止与公司的业务往来)的模型--在这里,模型需要预测一个二进制变量,如果流失则为 1,否则为 0。数据科学家将根据每个客户在每个时间步骤的可用历史数据来训练这样一个模型,以显示客户是否流失。根据设计,训练数据包含的 0 多于 1,每天跟踪客户从订购日到流失日的情况。在客户流失日之外,其他所有日期都将标记为零。如果零比一多,也就是说,如果模型几乎无法感知和学习任何流失活动行为,那么它就很难预测流失发生的时间,甚至可能永远无法预测任何人在任何时间的流失行为。

既然有超越人类认知偏差的解决方案,也有克服人工智能偏差的好方法。在上述示例中,消除算法偏差的一种方法是平衡数据,例如,只选择目标变量设置为 0 的少数几个观测值,或创建目标变量设置为 1 的合成观测值。

偏差还可能来自其他方面:模型可能过于复杂,导致对训练数据集的过度拟合,这意味着它学习到了大量有关数据集的特殊性,包括 "噪声 "方面,并且无法扩展到未观察到的行为。模型正则化是一种通过惩罚回归模型中的噪声变量权重,以及在神经网络训练过程中放弃或关闭某些神经元来防止过拟合的技术。

3- 如果管理不当,人工智能可能会增强我们的偏见

基于数据的偏见的一个问题是,它可能反映人类的偏见和成见。模型可以学会像我们一样解释世界,并将其记录下来。自然语言处理是一种处理和解释书面内容的机器学习技术。该技术使用嵌入技术,即把文档中的单词转化为机器可解释的向量。一旦有了向量,机器就可以学习不同单词之间的关系,从而创造出不同的语境。例如,机器可以学习到巴黎对法国的意义与东京对日本的意义相同。Word2vec 是一种创建此类嵌入的流行算法。在这篇论文中,研究人员使用该算法嵌入了来自谷歌新闻的 300 万字语料库。结果显示,如下图所示,嵌入中存在与性别相关的工作偏见。 

算法中与 "他 "或 "她 "性别相关的最极端职位。图自引用论文。

换句话说,这种算法将某些工作与特定性别联系起来。如果以原始方式使用,这种训练有素的算法可能会进一步加剧性别差异,例如,为寻找新机会的人提供不平等的工作机会。本文和许多文献都提出了处理算法中检测到的基于人类的偏见和刻板印象的技术,如识别捕捉偏见(如性别偏见)的变量(或维度,在嵌入的情况下)并消除它们。上述论文中提到的另一项技术是均衡性别特定维度,即创建一个性别中立的词嵌入新维度。必须定期进行此类检查,尤其是在敏感领域,以避免生成强化这些刻板印象的内容。 

人类经常与之互动的另一种人工智能是推荐系统。顾名思义,推荐系统是一种算法,用于根据用户以前消费的内容为其推荐新的选择。例如,在一个音乐平台上,根据我一直在听的音乐和我的个人资料,大量可用曲目中的特定曲目就会呈现给我,这很可能与其他用户在同一平台上获得的建议不同。 

社交媒体也是如此--推荐的内容符合人们的兴趣,因此会提高人们对平台的参与度。然而,不断接触符合个人兴趣的内容可能会引发偏见问题,因为这可能会增强确认性偏见。如前所述,当我们选择和解释信息的方式证实了我们先前的信念时,就会出现这种偏差。这里可以提出的担忧是,当我们消费符合我们先前兴趣的内容时,推荐系统会推荐与这些兴趣一致的内容,尽管算法可能会推荐随机内容供用户探索,但后者可能倾向于忽略这些内容,而消费完全符合其先前偏见的内容,从而强化了这些偏见。这种效应被称为 "回音室"。有趣的是,回音室效应一直是激烈争论的对象,因为对这一现象的研究是否足以证实它的存在......以及这种行为是由于算法的先入为主还是人类决策的本质造成的,众说纷纭。 

本文是我们探索决策过程系列文章的结尾。我们希望您喜欢阅读这篇文章,并希望它能帮助您了解决策过程是多么复杂和迷人,以及决策科学是多么具有影响力。

不要犹豫,订阅我们的 Tea O'Clock 时事通讯,了解最新发布的文章和最新的市场趋势。 五十五期时事通讯。

所有文章

相关文章

决策过程:概述 - 第 5 部分。认知科学与可持续性

7 分钟
Sabrine Hamroun

决策过程:概述 - 第 4 部分:引导:影响机制

5 分钟
Sabrine Hamroun

决策过程:概述 - 第 3 部分:风险下的决策

05 分钟
Sabrine Hamroun

期待获得更多专家见解?
立即订阅55数据月度精选Tea O'Clock!

发现最新资讯、深度文章、网络研讨会视频,以及55数据的各项活动。

名*
姓氏*
公司*
首选语言*
电子邮件*
谢谢!

您的订购要求已被充分考虑。
糟糕!提交表格时出了点问题。