1. 首页 >人工智能 > 正文

NIST提出了评估人工智能系统中用户信任的方法

导读 每次您与智能手机上的虚拟助手交谈时,您都是在与人工智能交谈——例如,人工智能可以了解您的音乐品味并根据您的互动做出改进的歌曲推荐。

每次您与智能手机上的虚拟助手交谈时,您都是在与人工智能交谈——例如,人工智能可以了解您的音乐品味并根据您的互动做出改进的歌曲推荐。然而,人工智能也可以帮助我们进行更多充满风险的活动,例如帮助医生诊断癌症。这是两种截然不同的场景,但同样的问题贯穿两者:我们人类如何决定是否相信机器的建议?

NIST 的新出版物提出了一份清单,列出了有助于人类对 AI 系统潜在信任的九个因素。一个人可能会根据任务本身和信任 AI 决定所涉及的风险对这九个因素进行不同的权衡。例如,两个不同的 AI 程序——一个音乐选择算法和一个辅助癌症诊断的 AI——可能在所有九个标准上得分相同。然而,用户可能倾向于信任音乐选择算法而不是医疗助理,后者正在执行一项风险更大的任务。图片来源:N. Hanacek/NIST

这是美国国家标准与技术研究院 (NIST) 的一份新出版物草案提出的问题,目的是激发关于人类如何信任 AI 系统的讨论。该文件,人工智能和用户信任( NISTIR 8332 ),将公开征求公众意见,直至 2021 年 7 月 30 日。

该报告有助于更广泛的 NIST 努力,以帮助推进值得信赖的 AI 系统。这份最新出版物的重点是了解人类在使用人工智能系统或受人工智能系统影响时如何体验信任。

根据 NIST 的 Brian Stanton 的说法,问题在于人类对 AI 系统的信任是否可衡量——如果是,如何准确、适当地衡量它。

“许多因素都被纳入我们关于信任的决定中,”该出版物的作者之一斯坦顿说。“这是用户对系统的看法和感受,以及如何感知使用它所涉及的风险。”

心理学家 Stanton 与 NIST 计算机科学家 Ted Jensen 共同撰写了该出版物。他们在很大程度上基于过去对信任的研究,从信任在人类历史中的整体作用以及它如何塑造我们的认知过程开始。他们逐渐转向与人工智能相关的独特信任挑战,人工智能正在迅速承担超出人类能力的任务。

“可以训练人工智能系统在大量数据中‘发现’人类大脑难以理解的模式。系统可能会持续监控大量视频,例如,发现其中一个孩子掉进港口,”斯坦顿说。“我们不再要求自动化来完成我们的工作。我们要求它做人类无法单独完成的工作。”

NIST 出版物提出了一份清单,列出了有助于个人对 AI 系统潜在信任的九个因素。这些因素不同于 NIST 与更广泛的 AI 开发人员和从业者社区合作建立的可信赖 AI 的技术要求。该论文展示了一个人如何根据任务本身和信任 AI 决定所涉及的风险来权衡不同描述的因素。

例如,一个因素是准确性。音乐选择算法可能不需要过于准确,特别是如果一个人有时好奇地超越自己的口味以体验新奇——无论如何,跳到下一首歌很容易。信任一个在癌症诊断中只有 90% 准确率的人工智能将是另一回事,这是一项风险更大的任务。

斯坦顿强调,出版物中的想法是基于背景研究,它们将受益于公众监督。

“我们正在提出一个人工智能用户信任模型,”他说。“这一切都是基于他人的研究和认知的基本原理。出于这个原因,我们希望获得有关科学界可能致力于为这些想法提供实验验证的工作的反馈。”

标签:

免责声明:本文由用户上传,如有侵权请联系删除!