研究人员开发了可解释的人工智能算法
多伦多大学和LGAIResearch的研究人员开发了一种“可解释的”人工智能(XAI)算法,可以帮助识别和消除显示屏中的缺陷。新算法在行业基准测试中的表现优于同类方法,是通过LG和多伦多大学之间正在进行的人工智能研究合作开发的,该合作于2019年扩大,重点关注企业人工智能应用。
研究人员表示,XAI算法可能会应用于其他需要了解机器学习如何做出决策的领域,包括对医学扫描数据的解释。
“可解释性和可解释性是为了满足我们作为工程师为自己设定的质量标准,也是最终用户的要求,”爱德华·S·罗杰斯学院电气和计算机工程系教授KostasPlataniotis说。应用科学与工程。“对于XAI,没有'一刀切'。你必须问你为谁开发它。是给另一个机器学习开发人员的吗?还是给医生或律师的?”
XAI是一个新兴领域,它解决了机器学习策略的“黑匣子”方法问题。
在黑盒模型中,计算机可能会收到一组数百万张标记图像形式的训练数据。通过分析数据,算法学会将输入(图像)的某些特征与某些输出(标签)相关联。最终,它可以正确地将标签附加到它以前从未见过的图像上。
机器自行决定要注意和忽略图像的哪些方面,这意味着它的设计者永远不会确切知道它是如何得出结果的。
但这种“黑匣子”模型在应用于医疗保健、法律和保险等领域时会带来挑战。
“例如,[机器学习]模型可能会确定患者有90%的机会患有肿瘤,”Sudhakar说。“对不准确或有偏见的信息采取行动的后果实际上是生死攸关。为了完全理解和解释模型的预测,医生需要知道算法是如何得出的。”
与传统机器学习相比,XAI被设计为一种“玻璃盒子”方法,使决策透明化。XAI算法与传统算法同时运行,以审核其学习性能的有效性和水平。该方法还提供了进行调试和提高培训效率的机会。
Sudhakar说,从广义上讲,有两种方法可以开发XAI算法——每种方法都有优点和缺点。
第一种称为反向传播,它依赖于底层的AI架构来快速计算网络的预测与其输入的对应关系。第二种称为扰动,为了精度而牺牲了一些速度,并涉及更改数据输入和跟踪相应的输出以确定必要的补偿。
“我们在LG的合作伙伴需要一种结合两者优势的新技术,”Sudhakar说。“他们有一个现有的[机器学习]模型,可以识别带显示器的LG产品中的缺陷部件,我们的任务是提高可能缺陷的高分辨率热图的准确性,同时保持可接受的运行时间。”
该团队的结果XAI算法,解释语义输入采样(SISE),在最近的第35届AAAI人工智能会议论文中进行了描述。
“我们看到了SISE广泛应用的潜力,”Plataniotis说。“特定场景的问题和意图总是需要对算法进行调整——但这些热图或'解释图'可以更容易地被例如医疗专业人员解释。”
“LG与多伦多大学合作的目标是成为人工智能创新领域的世界领导者,”Jang说。“XAI的首个成就表明我们公司一直在努力在多个领域做出贡献,例如LG产品的功能、制造创新、供应链管理、材料发现效率等,使用人工智能来提高客户满意度。”
电气和计算机工程系主任迪帕·昆杜尔教授说,像这样的成功是与行业合作伙伴合作价值的一个很好的例子。
“当两组研究人员都带着各自的观点来到谈判桌前时,通常可以加快解决问题的速度,”昆杜尔说。“让研究生接触到这个过程是非常宝贵的。”
虽然团队在为期一年的项目中实现激进的准确性和运行时间目标是一项挑战——同时还要兼顾多伦多/首尔时区并在的限制下工作——但Sudhakar说有机会产生一个实用的解决方案对于一家世界知名的制造商来说,付出的努力是非常值得的。
“了解行业究竟是如何运作的,这对我们有好处,”Sudhakar说。“LG的目标雄心勃勃,但我们得到了他们非常鼓舞人心的支持,并提供了有关想法或类比的反馈以供探索。那真是太让人激动了。”
标签: