跳过主要内容

新的框架提高了深度神经网络的性能

大脑形状的计算机电路的图解
图片学分:6eo Tech。根据创意公众许可分享。

即时发布

北卡罗来纳州立大学研究人员通过语法引导网络发电机制定了建设深神经网络的新框架。在实验测试中,新的网络 - 名为Agognets - 在可视识别任务中,在视觉识别任务中表现出现有的现有最先进的框架,包括广泛使用的resnet和densenet系统。

“AOGNets的预测精度比我们与之进行比较的任何网络都要高,”北卡罗来纳州立大学(NC State)电气与计算机工程助理教授吴天福(Tianfu Wu)表示。“AOGNets也更具可解释性,这意味着用户可以看到系统是如何得出结论的。”

新框架使用组成语法方法来系统架构,从而借鉴以前网络系统的最佳实践,以更有效地从原始数据中提取有用的信息。

“我们发现等级和组成语法给了我们一个简单,优雅的方式来统一以前的系统架构,以及我们最好的知识,它是第一个利用语法用于网络生成的工作,”吴说。

为了测试他们的新框架,研究人员开发了一种高效求并测试了他们的三个图像分类基准测试:CiFar-10,CiFar-100和Imagenet-1K。

吴说,“在公平的比较”中,获得了比所有最先进的网络的性能明显更好,而不是在公平的比较下,包括Resnet,Densenets,Resexts和Dualpatnnets。““使用ImageNet中的网络解剖指标,还获得了最佳模型解释性分数。aognets进一步表现出巨大的对抗防御和平台 - 不可知部署(移动与云)的巨大潜力。“

研究人员还使用Vanilla Mask R-CNN系统在Microsoft Coco基准测试中测试了IDognets在物体检测和实例语义分割中的性能。

“AOGNets获得了比ResNet和ResNeXt骨干更好的结果,模型尺寸更小,推理时间类似或稍好,”Wu说。结果表明,AOGNets在目标检测和分割任务中学习更好的特征是有效的。

这些测试是相关的,因为图像分类是视觉识别的核心基础任务之一,而ImageNet是标准的大规模分类基准。同样,目标检测和分割是两个核心的高级视觉任务,MS-COCO是应用最广泛的基准测试之一。

吴说:“要评估视觉识别中深度学习的新网络架构,它们是黄金试验台。”AOGNets是在有原则的语法框架下开发的,在ImageNet和MS-COCO上都取得了显著的改进,从而在许多实际应用中对表示学习产生了广泛而深刻的影响。

“我们对语法引导的AOGNet框架感到兴奋,并正在探索其在其他深度学习应用中的表现,如深度自然语言理解、深度生成学习和深度强化学习,”吴说。

本文,“AOGNets:用于深度学习的复合语法架构这篇论文的第一作者是来自北卡罗来纳州立大学的博士生李熙来。该论文由独立研究员宋曦(Xi Song)共同撰写。

这项工作是在美国陆军研究办公室W911NF1810295和W911NF1810209的支持下完成的。

专利申请已提交工作。作者有兴趣与潜在的学术和行业合作伙伴合作。

- 船员 -

编辑注:研究摘要如下。

“Agognets:深度学习的组成语法架构”

作者:北卡罗来纳州立大学Xilai Li And Tianfu Wu;溪歌,独立研究人员

提出了:2016年6月16日至20日,IEEE计算机视觉和图案识别会议(CVPR)在加利福尼亚州长海滩。

抽象的:神经架构是提高深度神经网络(DNN)性能的基础。本文提出了深度的组成语法架构,其利用两个世界的最佳选择:语法模型和DNN。拟议的架构整合了前者的合成性和可重构性以及以原则的方式学习后者的丰富特征的能力。我们在本文中使用和语法(aog)作为网络生成器,并调用得到的网络aognets。AGOGET由许多阶段组成,每个级由许多AOG构建块组成。AOG构建块沿着特征频道将其输入特征映射分成N组,然后将其视为N单词的句子。然后,它共同实现了一个短语结构语法和依赖语法在自下而上的解析“句子”中,以获得更好的特征探索和重用。它为最先进的DNN开发的最佳实践提供了统一的框架。在实验中,在Imagenet-1K分类基准测试和MS-Coco对象检测和分段基准中测试了AGAENET。在ImageNet-1K中,AGOGET比Reset和大多数变体,ResNext及其关注的变体获得更好的性能,例如Senet,DenSenet和DualpateNet。 AOGNet also obtains the best model interpretability score using network dissection. AOGNet further shows better potential in adversarial defense. In MS-COCO, AOGNet obtains better performance than the ResNet and ResNeXt backbones in Mask R-CNN.

留下一个响应

您的电子邮件地址不会被公开。各个领域都需要。