使人工智能易于理解构建解释流程
筛选工作应用程序,分析X射线图像,提出新的跟踪清单-人与机器之间的交互已成为现代生活中不可或缺的一部分。这些人工智能(AI)流程的基础是算法决策。但是,由于这些通常很难理解,因此它们通常没有预期的有用。帕德博恩大学和比勒费尔德大学的研究人员希望改变这种状况,并正在讨论如何改善人工智能的可解释性并使其适应人类用户的需求。他们的工作最近发表在著名的《IEEE认知与发展系统交易杂志》上。研究人员将解释描述为一种社会实践,双方共同构建了理解过程。
可解释性研究
比勒费尔德大学的计算机科学家Philipp Cimiano教授说:“人工系统已经变得复杂。这是一个严重的问题,尤其是当人们要对基于计算机的决策负责时。” Cimiano继续说,特别是在医疗预后或法律背景方面,我们需要了解如何制定机器驱动的决策。他指出,尽管已经有一些解决此类系统可解释性的方法,但它们还远远不够。帕德博恩大学(Paderborn University)的凯瑟琳娜·罗尔芬(Katharina Rohlfing)教授认为,迫切需要采取进一步的行动:“公民有权使算法决策透明化。在欧盟的《通用数据保护条例》中特别提到了这个问题,这有充分的理由。”
了解如何做出决定
参与这项研究的团队进一步走了一步,正在从不同角度研究基于计算机的解释。他们从这样的假设开始,即只有当解释不仅仅呈现给用户时,这些解释才对用户是可以理解的,但是如果用户参与制定它们,那么:考虑到其他人的知识和经验,任何想知道为什么其应用程序被算法拒绝的人通常都不会对了解机器学习技术感兴趣,而是询问如何根据自己的资格来处理数据”,Rohlfing解释说。
“当人与人互动时,他们之间的对话可确保根据对方的理解量身定制一种解释。对话伙伴提出问题以进一步解释,或者表达不理解的意思,然后加以解决。在人工智能的情况下,由于互动范围有限,因此受到限制。” Rohlfing继续说道。为了解决这个问题,语言学家,心理学家,媒体研究人员,社会学家,经济学家和计算机科学家正在跨学科团队中紧密合作。这些专家正在研究计算机模型和复杂的AI系统以及在通信交互中的作用。
作为社会实践的解释
帕德博恩(Paderborn)和比勒费尔德(Bielefeld)的研究人员为可解释的AI系统的设计开发了一个概念框架。Rohlfing说:“我们的方法使AI系统可以以交互方式配置流程的方式来回答选定的问题。通过这种方式,可以为对话伙伴量身定制一个解释,并且可以将社会因素纳入决策范围。” 研究团队将解释视为双方以一种社会实践形式共同采取的一系列行动。
目的是要以“脚手架”和“监控”为指导。这些术语最初来自发展研究领域。Rohlfing解释说:“简单地说,脚手架描述了一种通过提示和指导来支持学习过程并将其分解为部分步骤的方法。监视意味着观察和评估另一方的反应。” 研究人员的目标是将这些原理应用于AI系统。
新的援助形式
这种方法旨在扩展当前的研究,并为与人工智能相关的社会挑战提供新的答案。基本假设是,从解释中获得理解和采取进一步行动的唯一成功方法是让对话伙伴参与解释过程。从根本上讲,这是关于人类参与社会技术系统的问题。Rohlfing总结说:“我们的目标是使用真正可以解释和理解的AI系统创建新的交流形式,并以此方式促进新的援助形式。”
标签: 人工智能