跳到主要内容

新框架使AI系统更加透明而不会牺牲性能

二进制代码
图片信用:Tim Bouwer

即时发布

研究人员提出了一个框架,使用户能够了解人工智能(AI)决策后的理由。这项工作很重要,因为推动远离“黑匣子”AI系统 - 特别是在军事和执法等部门,在那里有需要证明决定。

“将我们框架分开的一件事是我们使这些可解释性要素成为AI培训过程的一部分,”Tianfu Wu说,本文首次作者以及北卡罗来纳州立大学计算机工程助理教授。

“例如,在我们的框架下,当AI程序正在学习如何识别图像中的对象时,它还学习本地化图像中的目标对象,并解析其符合目标对象标准的该位置的内容。然后将该信息与结果一起呈现。“

在概念验证实验中,研究人员将该框架纳入了广泛使用的R-CNN AI对象识别系统。然后,他们在两个确定的基准数据集中运行系统。

研究人员发现将可解释性框架纳入AI系统并未以时间或准确性损害系统的性能。

“我们认为这是实现完全透明的AI的重要一步,”吴说。“但是,解决了突出问题。

“例如,框架当前具有AI向我们展示了对象的位置,它认为它认为目标对象的特征的图像的各个方面。这是定性的。我们正在努力做出这种定量的方法,将置信度分成该过程。“

本文将在2011年11月27日至11月27日举行的计算机愿景国际会议上展示了“通过展开潜在结构来解释物体检测”。2在韩国首尔。本文由一名独立的研究员Xi Song撰写。

该作品是根据美国陆军研究办公室的支持,授予W911NF1810295和国防大学研究仪表计划授予W911NF1810209,并由国家科学基金授予1909644。

- 船员 -

编辑注:研究摘要跟随。

“通过展开潜在结构来实现可解释的对象检测”

作者:天府吴北卡罗莱纳州立大学;和Xi歌,独立研究人员

提出了:2011年10月27日。2,国际电脑愿景会议,首尔,韩国

抽象的:本文首先提出了一种基于展开潜在结构的想法在视觉理解任务中制定模型解释性的方法。然后,它在使用流行的基于两阶段区域的卷积网络(即R-CNN)检测系统的物体检测中提出了一种案例研究。该方法侧重于弱监督的提取理由生成,即学习在检测中自动且同时展开物体实例的潜在鉴别措施配置,而不使用任何监督部件配置。它利用嵌入在定向的非循环和或图形(AOG)中的自上而下的分层和组成语法模型来探索和展开感兴趣区域的潜在部分配置(ROI)。它呈现一个Aogparsing操作员,与R-CNN广泛使用的ropooling / roialign运算符无缝地集成,并训练结束端。在对象检测中,边界框由从飞行AOG导出的最佳解析树解释,这被视为用于解释检测的定性提取理由。在实验中,更快的R-CNN用于测试Pascal VOC 2007和CoCO 2017对象检测数据集的提出方法。实验结果表明,该方法可以计算有前途的潜在结构而不伤害性能。代码和预磨损模型可在https://github.com/ivmcl/ircnn获得。

留下回应

您的电子邮件地址不会被公开。各个领域都需要。