在人工智能系统中评估用户信任度的建议方法
每次您与智能手机上的虚拟助手通话时,您都在与人工智能(一种可以例如学习音乐的口味并根据您的互动提出建议的AI)进行交流。但是,人工智能还可以帮助我们开展更多充满风险的活动,例如帮助医生诊断癌症。这是两种截然不同的场景,但相同的问题都同时存在:我们人类如何决定是否信任机器的建议?
这是美国国家标准技术研究院(NIST)的新出版物草案提出的一个问题,目的是激发人们对AI如何信任AI系统的讨论。这份名为《人工智能与用户信任》(NISTIR 8332)的文件一直公开征询公众意见,直至2021年7月30日。
该报告为NIST的广泛努力做出了贡献,以帮助推进可信赖的AI系统。这本最新出版物的重点是了解人类在使用或受AI系统影响时如何体验信任。
根据NIST的Brian Stanton所说,问题在于人类对AI系统的信任度是否可以衡量,如果可以,那么如何准确,适当地对其进行衡量。
该出版物的作者之一斯坦顿说:“许多因素都纳入了我们关于信任的决定中。” “这是用户对系统的看法和感觉,以及感知使用该系统所涉及的风险的方式。”
心理学家Stanton与NIST计算机科学家Ted Jensen共同撰写了该出版物。他们在很大程度上基于过去对信任的研究,从信任在人类历史中的重要作用以及它如何塑造我们的认知过程入手。他们逐渐转向与AI相关的独特信任挑战,而AI正在迅速承担超出人类能力的任务。
“可以对AI系统进行训练,以'发现'人类大脑难以理解的大量数据。系统可能会连续监视大量视频,例如,发现一个落入港口的儿童其中之一。”斯坦顿说。“我们不再要求自动化来完成我们的工作。我们要求自动化去做人类无法独自完成的工作。”
NIST出版物提出了九个因素列表,这些因素有助于一个人对AI系统的潜在信任。这些因素不同于NIST与更广泛的AI开发人员和从业人员社区合作建立的可信赖AI的技术要求。本文展示了一个人如何根据任务本身和信任AI决策所涉及的风险来权衡不同描述的因素。
例如,一个因素是准确性。音乐选择算法可能不需要过于精确,特别是如果一个人好奇地有时会跳出自己的口味来体验新颖性时,在任何情况下,跳到下一首歌曲都是很容易的。信任仅能进行癌症诊断的准确率达到90%的AI会是完全不同的事情,这是一项风险很大的任务。
斯坦顿强调,该出版物中的想法是基于背景研究的,它们将从公众的审查中受益。
他说:“我们正在为AI用户信任提出一个模型。” “所有这些都是基于他人的研究和认知的基本原理。因此,我们希望获得有关科学界为提供这些想法的实验验证而可能进行的工作的反馈。”
标签: 人工智能系统