语言可解释性工具用于理解和可视化NLP模型
发布日期:2021-02-03 13:55:32
导读 语言学,计算机科学和人工智能领域已经触及了自然语言处理的各个方面。特别是,计算机与人类语言之间的相互作用提出了一些前所未有的问题。
语言学,计算机科学和人工智能领域已经触及了自然语言处理的各个方面。特别是,计算机与人类语言之间的相互作用提出了一些前所未有的问题。已经采取了大量步骤来开发自然语言处理方法,但是它们的实现以及用于执行和分发大量自然语言数据的相关处理工作量是一项艰巨的任务。
研究人员和工程师通常会从不同角度研究任何新开发的模型,旨在确定他们对变化的输入做出响应的方式或生成特定结果的原因。尽管“假设工具”是由Google开发的,旨在通过交互和可视化更好地了解机器学习模型,但仍需要一个单独的工具箱,该工具箱应特别适用于NLP模型。
为了解决此问题,Google推出了语言可解释性工具(LIT),工具包和基于浏览器的用户界面前端。
Google的AI研究人员开发了开源的语言可解释性工具(LIT),以帮助从业人员通过交互式,可视化和可扩展的工具来理解NLP模型。它使用易于使用的用户界面进行开发,该界面需要最少的编码。LIT为各种NLP任务提供了灵活性,包括序列生成,跨度标记,分类和回归,并提供了一种模块化方法,可以集成自定义便携式组件。
LIT支持本地说明,显着性图,丰富的模型可视化,注意参数分析,并支持分析的聚合,包括度量,嵌入空间和灵活的切片。在可视化和本地假设的测试之间进行无缝过渡,并通过特定的数据集对其进行验证。在任何情况下,都可以添加新的数据集,并且可以立即看到其效果。可以同时可视化两个数据点,以更好地比较两个数据点。
标签: