查看原文
其他

NeurIPS 2019 | 英特尔推进前沿研究解决现实挑战

英特尔 知IN 2022-05-12


本周举办的2019年神经信息处理系统(NeurIPS)大会上,英特尔贡献了30多篇会议、专题研讨会和焦点论文,内容涵盖深度均衡模型、模仿学习、机器编程等。


英特尔人工智能研究院高级总监Hanlin Tang 表示:“随着我们不断将人工智能融入到从低功耗设备到数据中心加速器的所有设备和范围内,英特尔将继续推动基础研究和应用研究的前沿。在今年NeurIPS大会上,英特尔将发表30多篇会议和专题研讨会论文。我们很荣幸能够与来自全球各地的杰出学术团体携手开展研究工作,这也彰显了英特尔通过合作推进机器学习发展的承诺。”


英特尔高级院士、英特尔研究院院长Rich Uhlig博士表示:“从应对内存挑战到研究新的自适应学习技术,英特尔在推进和扩展神经网络技术以应对日益复杂的动态负载方面取得了重大进展。我们在NeurIPS大会上展示的开发成果将有助于减少内存占用量、更好地衡量神经网络如何处理信息,并重塑机器实时学习的方式,发掘新的深度学习应用潜力,改变从制造业到医疗的所有领域。”



在NeurIPS大会上,英特尔研究主题涵盖了人工智能的各个领域,从对神经网络的基本理解,到将机器学习应用于软件编程,再到粒子物理学。以下是其中一些亮点:


自动化软件测试

标题:《诊断软件性能回归的零正学习方法》


作者:Mejbah Alam(英特尔研究院),Justin Gottschlich(英特尔研究院),Nesime Tatbul(英特尔研究院),Javier Turek(英特尔研究院),Timothy Mattson(英特尔研究院),Abdullah Muzahid(德州农工大学)


时间地点:2019年12月12日周四,太平洋标准时间下午5:00-7:00,东展厅 B + C #120


通过机器学习(ML)实现软件开发自动化是一个新兴领域,其愿景是通过由机器学习驱动的工具增强程序员测试代码、写新代码并诊断错误的能力。本文提出了一种在高性能计算代码中,自动进行回归测试(由新代码签入引起的错误)的方法AutoPerf。在运行代码时只利用名义训练数据和硬件性能计数器,我们证明了AutoPerf可以检测到并行编程中一些最复杂的性能bug。



通过模仿学习来教机器人

标题:《目标条件模仿学习》


作者:Yiming Ding(加州大学伯克利分校),Carlos Florensa(加州大学伯克利分校),Pieter Abbeel(加州大学伯克利分校以及初创公司Covariant.ai),Mariano Phielipp(英特尔人工智能研究院)


时间地点:2019年12月12日周四太平洋标准时间上午10:45-下午12:45,东展厅 B + C #229


这项研究工作的愿景是构建可以从人类演示中快速、轻易学习的机器人算法。尽管在机器人技术领域,通过人类演示来进行学习的研究非常充分,但是当前机器人所做的工作并不能超越人类专家,容易受到不完美的人类教师的影响,并且无法适应没见过的情况。本文介绍了一种新开发的算法goalGAIL。利用goalGAIL,机器人可展现出比专家更强的学习能力,甚至能够在非专家动作的情况下运行。这将扩大机器人技术的应用范围,例如:在演示者并不一定是专家的实用机器人领域;在算法可能需要迅速适应新部件的工业环境;以及在算法必须通过演示来适应个人喜好的个性化机器人领域。


序列模型的新方法

标题:《深度均衡模型》


作者:Shaojie Bai(卡内基梅隆大学),J. Zico Kolter(卡内基梅隆大学),Vladlen Koltun(英特尔研究院)


时间地点:2019年10月10日周四,太平洋标准时间上午10:40-10:45,西宴会厅C


在这篇NeurIPS的焦点论文(2%的接受率),我们开发了一种全新的序列数据机器学习方法,能够用单层模型来代替深度递归层。我们无需遍历一系列层,而直接通过根查找来求解最终表示。这种新型模型可以在语言基准测试上的达到最先进性能,但只有一层,可以将内存占用量减少88%。这为构建更大、更强大的模型提供了新的思路。


无需重训练的4比特Post-Training量化

标题:《实现快速部署的卷积网络Post-Training 4比特量化》


作者:Ron Banner(英特尔研究院),Yury Nahshan(英特尔研究院),Daniel Soudry(Technion)


时间地点:2019年12月11日周三,太平洋标准时间上午10:45 -下午12:45,东展厅B + C #105


卷积神经网络是一种深层神经网络,最常用于视觉图像分析,需要大量计算资源、内存带宽和存储容量。为了加快分析速度,通常将模型量化为低比特表示。但是,这种方法通常需要完整的数据集和耗时的微调,以恢复量化后丢失的精度。本文介绍了第一个实用的4比特Post-Training量化方法,该方法不涉及对量化模型的训练(微调),也不需要提供完整数据集。在各种卷积模型中,该方法所达到的精度仅比最新基准低几个百分点。


了解神经网络

标题:《不变语音识别中的解缠》


作者:Cory Stephenson(英特尔人工智能研究院),Suchismita Padhy(英特尔人工智能研究院),Hanlin Tang(英特尔人工智能研究院),Oguz Elibol(英特尔人工智能研究院),Jenelle Feather(麻省理工学院),Josh McDermott(麻省理工学院),SueYeon Chung(麻省理工学院)


时间地点:2019年12月11日周三,太平洋标准时间下午5:00-7:00,东展厅B + C #241


神经网络经常被称为“黑匣子”,因为它的部分决策是不透明的。人们通过各种方法试图窥探这个黑匣子,但其挑战在于:许多措施在理论上没有依据。在与麻省理工学院的合作中,我们已经应用了一些具有理论依据的基于流形容量的测量方法来更好地理解语音识别模型的几何结构。有理论依据的测量方法在深度学习领域极为罕见,这项工作试图通过一个独特的视角来了解神经网络处理信息的方式。


英特尔、Intel是英特尔公司在美国和或其他国家的商标。其他的名称和品牌可能是其他所有者的资产。英特尔商标或商标及品牌名称资料库的全部名单请见intel.com 商标信息。



相关资讯


/转载请注明出处/

你在看吗?

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存