问国家卫健委和国务院联防联控机制四个问题

这样的标准上海市疫情防控工作领导小组也好意思发布出来?

伊朗著名美女明星、奥斯卡影后被捕!

母子乱伦:和儿子做了,我该怎么办?

阳了后,14亿人民才发现集体被忽悠了!

自由微信安卓APP发布,立即下载! | 提交文章网址

专知

语音中如何处理隐私性安全性?南加大《以语音为中心的可信机器学习:隐私、安全和公平》综述全面阐述

以语音为中心的机器学习系统彻底改变了许多领先领域,从交通和医疗保健到教育和国防,深刻改变了人们的生活、工作和相互互动的方式。然而,最近的研究表明,许多以语音为中心的机器学习系统可能需要被认为更值得信任,以便更广泛地部署。具体来说,在机器学习研究领域,人们都发现了对隐私泄露、判别性能和对抗性攻击脆弱性的担忧。为了应对上述挑战和风险,人们做出了大量努力,以确保这些机器学习系统是值得信任的,特别是隐私、安全和公平。本文首次对与隐私、安全和公平相关的、以语音为中心的可信机器学习主题进行了全面的调研。除了作为研究界的总结报告外,本文指出了几个有希望的未来研究方向,以激励希望在该领域进一步探索的研究人员。引言在过去的几年中,机器学习(ML),特别是深度学习,在各种研究领域和应用中取得了巨大的突破,包括自然语言处理(Devlin等人,2018)、图像分类(He等人,2016)、视频推荐(Davidson等人,2010)、医疗保健分析(Miotto等人,2018),甚至掌握国际象棋游戏(Silver等人,2016)。深度学习模型通常由多个处理层组成,并结合了线性和非线性操作。尽管训练具有多层架构的深度学习模型需要积累大型数据集和访问强大的计算基础设施(Bengio等人,2021),但与传统的建模方法相比,训练后的模型通常达到最先进的(SOTA)性能。深度学习的广泛成功还允许更深入地了解人类状况(状态、特征、行为、交互)和革命性的技术,以支持和增强人类体验。除了ML在上述领域取得的成功,以语音为中心的ML也取得了重大进展。言语是人类之间一种自然而突出的交流形式。它存在于人类生活的几乎每一个层面,无论是与朋友聊天、与同事讨论,还是与家人远程通话。以语音为中心的机器学习的进步使Siri、谷歌Voice和Alexa等智能助手的普遍使用成为可能。此外,以语音为中心的建模在人类行为理解、人机界面(HCI)
12月20日 下午 6:23

台大李宏毅老师最新AACL2022教程《预训练语言模型》教程,261页ppt讲述预训练模型为什么Work与怎么用? 附视频

预训练语言模型(PLMs)是在大规模语料库上以自监督方式进行预训练的语言模型。在过去的几年中,这些PLM从根本上改变了自然语言处理社区。在本教程中,我们旨在从两个角度提供广泛而全面的介绍:为什么这些PLM有效,以及如何在NLP任务中使用它们。本教程的第一部分对PLM进行了一些有见地的分析,部分解释了PLM出色的下游性能。第二部分首先关注如何将对比学习应用于PLM,以改进由PLM提取的表示,然后说明如何在不同情况下将这些PLM应用于下游任务。这些情况包括在数据稀缺的情况下对PLM进行微调,以及使用具有参数效率的PLM。我们相信,不同背景的与会者会发现本教程内容丰富和有用。https://d223302.github.io/AACL2022-Pretrain-Language-Model-Tutorial/近年来,基于深度学习的自然语言处理(NLP)已经成为主流研究,比传统方法有了显著改进。在所有深度学习方法中,在感兴趣的下游任务上微调自监督预训练语言模型(PLM)已经成为NLP任务中的标准流程。自ELMo
12月18日 下午 5:22

【AAAI2023】基于Dirichlet元模型的事后不确定性学习

众所周知,神经网络在直接使用输出标签分布生成不确定性度量时存在过度自信的问题。现有方法主要通过重新训练整个模型,赋予其不确定性量化能力,使学习到的模型在精度和不确定性预测方面同时达到预期的性能。然而,从头开始训练模型的计算成本很高,在许多情况下可能是不可行的。本文考虑一个更实际的事后不确定性学习设置,给出一个训练良好的基础模型,并专注于训练第二阶段的不确定性量化任务。本文提出一种新的贝叶斯元模型,以增强预训练模型的不确定性量化能力,有效且计算效率高。所提出的方法不需要额外的训练数据,足够灵活,可以量化不同的不确定性,并容易适应不同的应用设置,包括域外数据检测、错误分类检测和可信迁移学习。在多个代表性的图像分类基准上,证明了所提出的元模型方法的灵活性和在这些应用上的优越经验性能。https://www.zhuanzhi.ai/paper/ce666840fd9361b6f02ab0f425f731c6专知便捷查看便捷下载,请关注专知公众号(点击上方蓝色专知关注)后台回复“UDMA”
12月16日 下午 5:40

【AAAI2023】MAPS-KB:一个百万级概率明喻知识库

理解和生成明喻的能力是实现人类级别AI的必要步骤。然而,在明喻方面,机器智能与人类认知仍有相当大的差距,因为基于统计分布的深度模型倾向于支持高频明喻。因此,需要一个大规模的明喻符号知识库,因为它有助于对不同但不受欢迎的明喻进行建模,同时便于进行额外的评估和推理。为了弥补这一差距,我们提出了一个用于大规模明喻知识库构建的新框架,以及两个概率度量,使我们能够更好地理解自然语言中的明喻现象。总体而言,我们构建了一个百万级概率明喻知识库MAPS-KB,涵盖了70
12月15日 下午 5:41

图学习如何检测异常?澳大利亚联邦大学最新《图学习异常分析:算法、应用与挑战》综述,阐述GCN/GAT/GAE等方法

图上如何做异常分析?澳大利亚联邦大学最新《图学习异常分析:算法、应用与挑战》综述,阐述GCN/GAT/GAE等方法异常分析是一项广泛而重要的研究任务,已经被研究了几十年。与此同时,深度学习在解决许多基于图的任务方面表现出了其能力,如节点分类、链接预测和图分类。近年来,许多研究通过扩展图学习模型来解决异常分析问题,使得基于图的异常分析技术取得了一些有益的进展。本文对用于异常分析任务的图学习方法进行了全面的概述。根据模型架构将它们分为四类,即图卷积网络(GCN)、图注意力网络(GAT)、图自编码器(GAE)和其他图学习模型。系统地比较了这些方法之间的差异。概述了现实世界中跨不同领域的几个基于图的异常分析应用。最后,讨论了这一快速发展领域未来可能的5个研究方向。1.
12月15日 下午 5:41

时序多模态知识图谱如何推理?国防科大最新《知识图谱推理:静态、时序和多模态》综述论文,全面阐述知识图谱推理技术进展

KGs)以直观的图结构[1],[2],[3]存储人类知识事实,可作为提供特定领域知识的书籍,因此被许多研究者视为潜在的解决方案。为了利用知识图谱中的先验知识,知识图谱推理(knowledge
12月14日 下午 5:30

【AAAI2023】学习为可解释序列数据建模选择原型部件

基于原型的可解释性方法通过将样本与记忆的样本或典型代表的参考集进行相似性比较,为模型预测提供直观的解释。在序列数据建模领域,原型的相似度计算通常基于编码表示向量。然而,由于高度递归的函数,基于原型的解释和原始输入之间通常存在不可忽略的差异。本文提出一种自解释选择性模型(SESM),用原型概念的线性组合来解释自己的预测。该模型采用基于案例推理的思想,选择最能激活不同概念的输入子序列作为原型部件,用户可以将其与从不同示例输入中选择的子序列进行比较,以理解模型决策。为了更好的可解释性,设计了多种约束,包括多样性、稳定性和局部性作为训练目标。在不同领域的广泛实验表明,所提出方法表现出良好的可解释性和有竞争力的准确性。https://www.zhuanzhi.ai/paper/db26f2247e2b7a1b39ddc69b3e9e4ab8专知便捷查看便捷下载,请关注专知公众号(点击上方蓝色专知关注)后台回复“PISD”
12月13日 下午 5:23

丹麦奥胡斯大学等最新《高效高分辨率深度学习》综述,全面阐述高效高分辨率深度学习方法

丹麦奥胡斯大学等最新《高效高分辨率深度学习》综述,全面阐述高效高分辨率深度学习方法,非常值得关注!智能手机、卫星和医疗设备等现代设备中的相机能够捕捉非常高分辨率的图像和视频。此类高分辨率数据通常需要通过深度学习模型进行处理,用于癌症检测、自动道路导航、天气预测、监测、优化农业过程和许多其他应用。由于高参数、计算成本、推理延迟和GPU内存消耗大,将高分辨率图像和视频作为深度学习模型的直接输入会带来许多挑战。像将图像调整到较低分辨率这样的简单方法在文献中很常见,但它们通常会显著降低精度。文献中的一些工作提出了更好的替代方案,以应对高分辨率数据的挑战,提高精度和速度,同时遵守硬件限制和时间限制。本综述介绍了这些高效的高分辨率深度学习方法,总结了高分辨率深度学习在现实世界中的应用,并提供了现有高分辨率数据集的全面信息。https://www.zhuanzhi.ai/paper/f70e86bd36f853e9e2f1b8e3d3257954概述许多现代设备,如智能手机、无人机、增强现实头盔、车辆和其他物联网(IoT)设备都配备了高质量的相机,可以捕捉高分辨率的图像和视频。在图像拼接技术、相机阵列[1]、[2]、十亿像素采集机器人[3]和全切片扫描仪[4]的帮助下,捕获分辨率可以提高到数十亿像素(通常称为十亿像素),如图1所示的图像。人们可以尝试根据人类视觉系统的能力来定义高分辨率。然而,许多深度学习任务依赖于设备捕获的数据,这些设备的行为与人眼非常不同,如显微镜、卫星图像和红外相机。此外,利用眼睛无法感知的更多细节在许多深度学习任务中是有益的,例如在第二节中讨论的应用。可以捕获并在处理时有用的细节量因任务而异。因此,高分辨率的定义与进程有关。例如,在图像分类和计算机断层扫描(CT)扫描处理中,512×512像素的分辨率被认为是高[5],[6]。在视觉人群计数中,高分辨率(HD)或更高分辨率的数据集常见[7],而在组织病理学中研究组织疾病的全切片图像(WSIs),或由飞机或卫星捕获的遥感数据,很容易达到十亿像素分辨率[8]、[9]。此外,随着硬件和方法的不断进步,深度学习文献认为的高分辨率已经随着时间发生了变化。例如,在20世纪90年代末,用神经网络处理32×32-pixel
12月13日 下午 5:23

【AAAI2023】对抗性权重扰动提高图神经网络的泛化能力

(WTAWP)来缓解这个问题。用WT-AWP正则化图神经网络,持续提高了许多不同图学习任务和模型的自然和鲁棒泛化能力。专知便捷查看便捷下载,请关注专知公众号(点击上方蓝色专知关注)后台回复“AWP”
12月12日 下午 5:37

自监督学习在CV进展?何恺明等最新ECCV2022教程《自监督表示学习计算机视觉研究》,全面讲述自监督视觉学习进展

本教程涵盖了自监督视觉表示学习领域的流行方法和最新进展。我们将介绍掩码自动编码器和对比学习等主题。我们将展示这些框架如何成功地从2D静态图像和动态视频信息中学习。最后,我们还将从机器学习的角度讨论自监督学习。总的来说,我们将展示不同自监督学习技术之间的联系和区别,并提供关于社区中流行方法的见解。https://feichtenhofer.github.io/eccv2022-ssl-tutorial/组织人员:目录内容:Welcome
12月10日 下午 5:23

【AAAI2023】FacT:视觉Transformer上轻量级自适应的因子精调

(FacT)。在VTAB-1K基准上,所提出方法的表现与最先进的PETL方法NOAH相当,同时参数效率提高了5倍。本文还提出了一个小版本,只使用8K
12月8日 下午 5:03

「强化学习在无人车领域」的应用与展望

一。本文首先简要概述了强化学习的发展历程、基础原理和核心算法;随后,分析总结了强化学习在无人车智能决策中的研究进展,包括障碍
12月8日 下午 5:03

【AAAI2023】用于复杂场景图像合成的特征金字塔扩散模型

扩散模型(DMs)在高质量图像合成中显示出巨大的潜力。然而,在制作复杂场景的图像时,如何正确地描述图像的全局结构和对象细节仍然是一个具有挑战性的任务。在这篇论文中,我们提出了Frido,一个特征金字塔扩散模型执行多尺度粗-细去噪过程的图像合成。我们的模型将输入图像分解为尺度相关的矢量量化特征,然后进行从粗到细的调制生成图像输出。在上述多尺度表示学习阶段,可以进一步利用文本、场景图或图像布局等附加输入条件。因此,Frido也可以用于条件或交叉模态图像合成。我们在各种无条件和有条件的图像生成任务上进行了广泛的实验,从文本到图像合成,从布局到图像,从场景到图像,到标签到图像。更具体地说,我们在五个基准上获得了最先进的FID得分,分别是COCO和OpenImages上的布局到图像,COCO和Visual
12月5日 下午 5:35

NeurIPS 2022最新「贝叶斯优化」教程报告,230+页PPT阐述BO最新进展

2014.专知便捷查看便捷下载,请关注专知公众号(点击上方蓝色专知关注)后台回复“BOA”
12月4日 下午 6:25

【AAAI2023】视觉辅助的常识知识获取

大规模的常识知识库为广泛的AI应用提供了能力,其中常识知识的自动提取(CKE)是一个基本和具有挑战性的问题。文本中的CKE因其固有的稀疏性和文本中常识的报道偏差而闻名。另一方面,视觉感知包含了丰富的关于现实世界实体的常识知识,如(人、能拿的东西、瓶子),这可以作为获得基础常识知识的有前途的来源。在这项工作中,我们提出CLEVER,它将CKE描述为一个远端监督的多实例学习问题,其中模型学习从一组关于实体对的图像中总结常识关系,而不需要对图像实例进行任何人为注释。为了解决这一问题,CLEVER利用视觉语言预训练模型来深入理解袋子中的每个图像,并从袋子中选择信息实例,通过一种新颖的对比注意力机制来总结常识性的实体关系。综合实验结果表明,CLEVER方法能够较好地提取常识性知识,比基于语言模型的预训练方法提高了3.9个AUC点和6.4个mAUC点。预测的常识得分与人的判断具有较强的相关性,斯皮尔曼系数为0.78。此外,提取出来的常识也可以根植于具有合理解释性的图像中。数据和代码可以在https://github.com/thunlp/
11月28日 下午 5:42

【哈佛大学博士论文】构建深度学习的理论基础:一种实证方法,164页pdf

尽管在深度学习方面已经取得了巨大的实践进展,但我们对是什么使深度学习工作得很好以及为什么这样做缺乏清晰的理论理解。在本文中,我们采用“自然科学”的方法来构建深度学习的理论。我们首先确定在跨越各种不同背景的实际深度网络中出现的各种经验属性。然后,我们讨论了这些实证发现可以如何用来通知理论。具体而言,我们证明:
11月28日 下午 5:42

【AAAI2023】对比掩码自动编码器的自监督视频哈希

自监督视频哈希(SSVH)模型学习为视频生成短二进制表示,无需地真监督,提高了大规模视频检索的效率,引起了越来越多的研究关注。SSVH的成功之处在于对视频内容的理解以及捕获未标记视频之间语义关系的能力。通常,最先进的SSVH方法在两阶段训练管道中考虑这两点,首先通过实例掩码训练辅助网络并预测任务,其次训练哈希模型以保留从辅助网络转移的伪邻域结构。这种连续的训练策略是不灵活的,也是不必要的。本文提出了一种简单有效的单阶段SSVH方法——ConMH,该方法将视频语义信息和视频相似关系的理解融合在一个单阶段中。为了获取视频语义信息,我们采用编码器-解码器结构从时间掩码帧重构视频。特别是,我们发现较高的掩蔽比有助于视频理解。此外,我们充分利用了视频之间的相似关系,最大化了视频的两个增强视图之间的一致性,从而获得了更具鉴别性和鲁棒性的哈希码。在三个大型视频数据集(FCVID,
11月26日 下午 5:16

【NUS博士论文】深度视觉算法的对抗鲁棒性研究,126页pdf

深度学习方法在解决计算机视觉任务方面取得了巨大的成功,在人工智能系统中被广泛应用于图像处理、分析和理解。然而,深度神经网络(DNNs)已被证明易受输入数据的对抗性扰动的影响。因此,深度神经网络的安全问题浮出了水面。综合研究深度视觉算法的对抗鲁棒性是十分必要的。本文主要研究深度分类模型和深度图像去噪的鲁棒性。对于图像去噪,我们系统地研究了深度图像去噪器的鲁棒性。具体而言,我们提出了一种新的攻击方法,基于观测的零均值攻击(ObsAtk),考虑了自然噪声的零均值假设,对有噪声的输入图像产生对抗性扰动。我们开发了一种有效的、理论基础的基于PGD的优化技术来实现ObsAtk。针对ObsAtk,我们提出了混合对抗训练(HAT)来增强深度图像去噪器的鲁棒性。大量的实验证明了HAT的有效性。此外,我们探讨了降噪器的对抗性鲁棒性和对真实世界中不可见的噪声类型的适应性之间的联系。我们发现,只有合成噪声数据经过HAT训练的深度降噪器可以很好地推广到不可见的噪声类型。噪声去除能力甚至可以与训练与真实世界的噪声降噪器相媲美。对于图像分类,我们探索了除了传统卷积神经网络(CNNs)之外的新的鲁棒架构。首先,研究了神经常微分方程的鲁棒性。我们通过经验证明,与基于CNN的分类器相比,基于节点的分类器对输入扰动表现出更好的鲁棒性。为了进一步增强基于节点的模型的鲁棒性,我们将时不变属性引入到节点中,并施加一个稳态约束来规范受扰动数据上的ODE流。我们证明了合成模型,称为时不变稳定神经ODE
11月26日 下午 5:16

博弈论视角下的多智能体强化学习综述,129页pdf与76页Slides

继AlphaGO系列的巨大成功之后,2019年是一个蓬勃发展的一年,见证了多智能体强化学习(MARL)技术的重大进展。MARL对应于多智能体系统中多个智能体同时学习的学习问题。这是一个具有悠久历史的跨学科领域,包括博弈论、机器学习、随机控制、心理学和优化。尽管MARL在解决现实世界的游戏方面取得了相当大的经验上的成功,但文献中缺乏一个完整的概述来阐述现代MARL方法的博弈理论基础,并总结最近的进展。事实上,现有的大多数综述都是过时的,没有完全涵盖2010年以来的最新发展。在这项工作中,我们提供了一个关于MARL的专著,包括基本原理和研究前沿的最新发展。本综述分为两部分。从§1到§4,我们介绍了MARL的完备的基础知识,包括问题公式、基本解决方案和现有的挑战。具体地说,我们通过两个具有代表性的框架,即随机博弈和广义博弈,以及可以处理的不同博弈变体,来呈现MARL公式。这一部分的目的是使读者,即使是那些相关背景很少的人,掌握MARL研究的关键思想。从§5到§9,我们概述了MARL算法的最新发展。从MARL方法的新分类开始,我们对以前的研究论文进行了调研。在后面的章节中,我们将重点介绍MARL研究中的几个现代主题,包括Q函数分解、多智能体软学习、网络化多智能体MDP、随机潜在博弈、零和连续博弈、在线MDP、回合制随机博弈、策略空间响应oracle、一般和博弈中的近似方法、以及具有无限个体的游戏中的平均场类型学习。在每个主题中,我们都选择了最基础和最先进的算法。我们调研的目的是从博弈理论的角度对当前最先进的MARL技术提供一个完备的评估。我们希望这项工作能够为即将进入这个快速发展的领域的新研究人员和现有的领域专家提供一个跳板,他们希望获得一个全景视图,并根据最近的进展确定新的方向。https://arxiv.org/abs/2011.00583引言机器学习可以看作是将数据转换为知识的过程(Shalev-Shwartz
11月26日 下午 5:16

【AAAI2023】基于序图的因果结构强化学习

学习描述观测数据因果关系的有向无环图(DAG)是一项非常具有挑战性但又非常重要的任务。由于观测数据的数量和质量有限,以及因果图的不可识别性,几乎不可能推断出单个精确的DAG。一些方法通过马尔可夫链蒙特卡罗(MCMC)逼近DAG的后验分布来探索DAG空间,但DAG空间具有超指数增长的性质,准确刻画DAG空间的整体分布是非常棘手的。本文提出了一种基于序图的因果结构强化学习(RCL-OG)方法,该方法使用序图代替MCMC来建模不同的DAG拓扑顺序,从而减小问题的规模。RCLOG首先用一种新的奖励机制定义强化学习,以效能的方式近似排序的后验分布,并使用深度Q学习在节点之间更新和传递奖励。其次,得到顺序图上节点的概率转移模型,并计算不同顺序的后验概率。这样我们就可以在这个模型上进行抽样,得到高概率的排序。在综合数据集和基准数据集上的实验表明,RCL-OG提供了精确的后验概率逼近,并取得了比Baseline因果发现算法更好的结果。https://www.zhuanzhi.ai/paper/c90518730875122693a9e8cdefab601a专知便捷查看便捷下载,请关注专知公众号(点击上方蓝色专知关注)后台回复“RCSL”
11月25日 下午 5:55

图上聚类怎么做?国防科大等最新《深度图聚类》综述,13页pdf阐述深度图聚类分类、挑战与应用综述

本文首次对深度图聚类进行了全面的研究图聚类是一项基本且具有挑战性的任务,它旨在将图中的节点划分为几个不同的簇。近年来,越来越多的人提出了深度图聚类方法,并取得了良好的性能。但是,相关的综述论文比较缺乏,对这方面的研究进行总结迫在眉睫。基于此动机,本文首次对深度图聚类进行了全面的研究。首先,详细介绍了深度图聚类的定义和重要的基线方法。并根据图类型、网络架构、学习范式和聚类方法四个标准对深度图聚类方法进行了分类。此外,通过对现有工作的仔细分析,从五个角度总结了挑战和机遇。最后介绍了深度图聚类在四个领域的应用。值得一提的是,在GitHub上有一系列最先进的深度图聚类方法,包括论文、代码和数据集。我们希望这项工作将作为一个快速指南,并帮助研究人员克服这一充满活力的领域的挑战。https://www.zhuanzhi.ai/paper/3170600fe1ddff3ffa9f2155e397cbe51.
11月25日 下午 5:55

【CMU博士论文】黑盒和多目标优化策略,151页pdf

黑盒优化(BBO)问题经常发生在许多工程和科学学科中,在这些学科中,人们可以访问一个函数(黑盒)的零阶评估,该函数必须在特定的领域进行优化。在许多情况下,函数的计算成本很高,因此计算的次数受到预算的限制。贝叶斯优化(Bayesian
11月24日 下午 5:56

什么是物理信息机器学习(PIML)?清华最新《基于物理信息的机器学习:问题、方法和应用》综述,42页pdf全面阐述PIML进展

伴随着人工智能的飞速发展,以神经网络为代表的深度学习宛如饥饿的猛兽,无论你喂多少的数据给它,它都不嫌多。但在现实中,有很多数据存在着丢失、不完整。再者,虽然神经网络可以实现很高的精度,但是它们不能为我们总结底层的原理。难道我们真的要丢掉无数学者总结出的知识,完全依靠数据来推动发展吗?最近学者将物理知识嵌入机器学习,称为基于物理信息的机器学习,可以以一种统一的方式无缝地整合数据和物理原理,也因此提升了机器学习的泛化性,使机器学习不再是只针对特定的某种问题有着很好的效果。来自清华大学朱军等学者发布了《基于物理信息的机器学习:问题、方法和应用》综述,42页pdf全面阐述PIML进展。数据驱动机器学习的最新进展已经彻底改变了计算机视觉、强化学习以及许多科学和工程领域。在许多现实世界和科学问题中,生成数据的系统是受物理定律支配的。最近的研究表明,通过结合物理先验和收集到的数据,它为机器学习模型提供了潜在的好处,这使得机器学习和物理的交叉成为一个流行的范式。在本次综述中,我们提出了一种被称为物理信息机器学习(PIML)的学习范式,它旨在建立一个模型,利用经验数据和可用的物理先验知识来提高一组涉及物理机制的任务的性能。我们从机器学习任务、物理先验的表示和融合物理先验的方法三个角度系统地回顾了基于物理的机器学习的最新发展。根据该领域目前的发展趋势,我们提出了几个重要的开放研究问题。我们认为,将不同形式的物理先验编码到模型架构、优化器、推理算法和重要的领域特定应用(如逆向工程设计和机器人控制)中,在基于物理的机器学习领域中还远远没有得到充分的探索。我们相信这项研究将鼓励机器学习领域的研究人员积极参与到基于物理的机器学习的跨学科研究中来。https://www.zhuanzhi.ai/paper/01607bcd00ae3cab2bbac713236498ea1.
11月16日 下午 5:02

【经典书】实用数学优化:基本优化理论与基于梯度的算法,388页pdf

本书为数学、工程、计算机科学和其他应用科学的高年级本科生和研究生提供了广泛的数学优化课程工具。介绍了优化的基本原理,重点介绍了基于梯度的数值优化策略和算法,可用于求解光滑和有噪声的不连续优化问题。还注意到函数求值的困难和存在多个最小值,这往往不必要地抑制了基于梯度的方法的使用。这第二版介绍了仅梯度优化策略的进一步改进,以处理目标函数中的不连续。新的章节讨论了代理模型的构造,以及新的仅限梯度解决方案策略和使用Python的数值优化。一个特殊的Python模块以电子方式提供(通过springerlink),它使文本中的新算法易于访问并直接适用。数值例子和练习包括鼓励高级到研究生水平的学生计划,执行,并反映数值调查。通过对概念材料的深入理解,学生、科学家和工程师将能够发展系统和科学的数字调研技能。https://link.springer.com/book/10.1007/978-3-319-77586-9数学优化通常也被称为非线性规划、数学规划或数值优化。在更一般的术语中,数学优化可以被描述为确定数学定义的问题的最佳解决方案的科学,这些问题可能是物理现实或制造和管理系统的模型。在第一种情况下,所寻求的解决方案通常对应于从分子到悬索桥的一般结构的最小能量配置,因此对科学和工程很有兴趣。在第二种情况下,对社会和工业具有经济重要性的商业和财务考虑开始发挥作用,并要求作出决定,例如确保最大的利润或最低的成本。本书的重点几乎完全集中在基于梯度的方法上。这有两个原因。(i)作者认为,引入数学优化的主题最好通过经典的基于梯度的方法来完成,(ii)与目前流行的使用非梯度方法的趋势相反,如遗传算法(GA),模拟退火,粒子群优化和其他进化方法,作者认为,在许多情况下,这些搜索方法在计算上过于昂贵,不可行。关于数值噪声和多重最小值的存在不适合使用基于梯度的方法,以及在这种情况下唯一的解决方法是使用上述非梯度搜索技术的论点,不一定是正确的。根据作者的经验,通过明智地使用基于梯度的方法,可以解决带有数值噪声和多重最小值的问题,而且只需要花费遗传算法等搜索技术的一小部分计算成本。在此背景下,第六章讨论了第一作者开发的新的基于梯度的方法和第八章作者开发的纯梯度方法,这是特别重要的。材料的呈现不太严格,但希望是正确的,应该提供必要的信息,让科学家和工程师选择适当的优化算法,并成功地将它们应用到各自感兴趣的领域。目录内容:Basic
9月7日 下午 5:02

【MIT博士论文】实用机器学习的高效鲁棒算法,142页pdf

机器学习模型在有偏差的数据集上训练时是有偏差的。最近提出了许多方法,以减轻被确定为先验的偏差。然而,在现实世界的应用中,标注偏差不仅耗时而且具有挑战性。本论文考虑了三种不同的场景,并提出了学习鲁棒模型的新算法。这些算法是有效的,因为它们不需要明确的偏差注释,从而实现了实用的机器学习。首先,我们引入了一种算法,该算法对从多个环境中收集的数据进行操作,其中偏差特征和标签之间的相关性可能会有所不同。我们表明,当使用在一个环境上训练的分类器对来自不同环境的例子进行预测时,它的错误是隐藏偏见的信息。然后,我们利用这些错误来创建一组示例,这些示例的插值结果只具有稳定的相关性。我们的算法在四种文本和图像分类任务上实现了最新的技术。然后我们考虑无法访问多个环境的情况,这是新任务或资源有限任务的常见场景。我们证明,在现实世界的应用中,相关的任务往往有类似的偏见。在此基础上,我们提出了一种算法,从资源丰富的源任务中推断出偏差特征,并将这种知识转移到目标任务中。与横跨5个数据集的15个基线相比,我们的方法始终提供显著的性能提升。最后,我们研究了只给出一组输入标签对的自动偏差检测。我们的算法学习分割数据集,使得在训练分割上训练的分类器不能泛化到测试分割上。性能差距为测量学习特征的偏差程度提供了一个智能体,因此可以用来识别未知偏差。在六个NLP和视觉任务上的实验表明,我们的方法能够产生与人类识别的偏差相关的虚假分裂。专知便捷查看便捷下载,请关注专知公众号(点击上方蓝色专知关注)后台回复“R142”
9月7日 下午 5:02

100页pdf!《人工智能加速核技术应用》国际原子能机构

人工智能是指一系列技术的集合,这些技术能够以类似于人类逻辑和推理的方式跟踪复杂问题。机器学习技术学习如何在大量数据的基础上完成特定的任务。人工智能技术正在呈指数级发展,已经能够对来自各种来源的大量数据进行分类和解释,以执行各种任务,并帮助应对世界上许多最紧迫的挑战。人工智能具有巨大的潜力来加速许多核领域的技术发展,从核医学到水资源管理,再到核科学和工业。2021年,国际原子能机构主办了核技术与应用人工智能技术会议,旨在提供一个国际性、跨领域的论坛,讨论和促进在核科学、技术与应用、辐射防护、核安全和保障核查等领域的合作。目的是确定这些领域今后活动的优先次序以及原子能机构如何能够支持这些活动的执行。这是首次召开此类会议,也是一次反思人工智能与核技术融合的伦理考虑的机会。本出版物提供了当前技术状态的概述,概述了挑战并确定了加速核应用、人工智能科学和技术的机会。原子能机构感谢起草和审查这份出版物的贡献者所做的工作。负责这份出版物的原子能机构官员是物理和化学科学司的M.
9月6日 下午 5:02

【硬核书】信号处理基础,677页pdf

本书介绍了信号处理的基本原理和技术,从信号和系统理论的基本思想到真实世界的应用。学生被介绍到现代信号处理的强大基础,包括希尔伯特空间的基本几何,傅里叶变换的数学,以及采样、插值、逼近和压缩的要点。作者讨论了现实世界的问题和使用这些工具的障碍,以及适应他们的方法,以克服有限和本地化的问题,不确定性的限制,和计算成本。它包括超过160个家庭作业问题和超过220个工作示例,专门设计用于测试和扩展学生对信号处理基础的理解,并伴随着广泛的在线材料,旨在帮助学习,包括Mathematica®资源和交互式演示。https://fourierandwavelets.org/这本书涵盖了现代信号处理的深入理解的基础。它包含了许多读者以前可能看到的分散在多个来源的材料,但没有希尔伯特空间解释,这在信号处理中是必不可少的。我们的目标是用几何来教授信号处理,也就是说,将欧几里得几何观点扩展到抽象信号;我们用希尔伯特空间几何来完成。通过这种方法,基本概念——如基的性质、傅里叶表示、采样、插值、逼近和压缩——通常在有限维度、离散时间和连续时间中统一起来,从而更容易指出少数的本质区别。几何上统一结果有助于推广到傅里叶域以外的见解,推动理解得更远、更快。这本书的目的是为刚才描述的方法开发框架,即扩展和近似,以及展示这些方法在工程和应用科学中使用的实际例子。特别地,我们将看到扩展和逼近与采样、滤波、估计和压缩等基本信号处理任务密切相关。第二章,从欧几里得到希尔伯特,介绍了希尔伯特空间的基本结构。这些向量空间被赋予了可以归纳直观几何性质的操作。在一般情况下,我们提出信号表示的概念,它本质上是向量空间的坐标系。当一个表示是完整的且不冗余的,它为空间提供了基础;当它是完整的和冗余的,它为空间提供了一个框架。基的一个关键优点是正交性;与框架相对应的是紧密性。第3章和第4章将我们的注意力集中在序列和函数空间上,它们的域可以与时间相关联,从而得到一种在一般希尔伯特空间中不一定存在的内在排序。在第3章“序列与离散时间系统”中,向量是依赖于离散时间的序列,在这些向量上的一类重要的线性算子是对时移不变的算子;这些是卷积算子。这些运算符自然地导致使用离散时间傅里叶变换的信号表示,而对于循环扩展的有限长度序列,则使用离散傅里叶变换。第四章,函数与连续时间系统,平行于第三章;向量现在是一个依赖于连续时间的函数,关于这些向量的一个重要的线性算子是那些对时移不变的;这些是卷积算子。这些运算符自然地导致使用傅里叶变换的信号表示,对于循环扩展的有限长度函数,或周期函数,傅里叶级数。这两章中的四种傅里叶表示在不同的领域中例证了线性、移位不变算子或卷积的对角化。第5章,采样和插值,在第3章和第4章之间建立了基本的联系。将离散时间序列与给定的连续时间函数联系起来是采样,反之则是插值;这些是信号处理中的核心概念,因为连续域现象的数字计算必须在离散域中进行。第6章,近似和压缩,介绍了许多类型的近似,这些近似是制造计算实用工具的核心。研究了多项式逼近和级数展开式截断法,以及压缩的基本原理。第7章,局部化和不确定性,介绍了单个向量的时间、频率、尺度和分辨率特性;这些属性建立了我们的直觉,让我们知道单个表示系数可能捕捉到什么,也可能捕捉不到什么。然后,我们研究用于表示信号的向量集的这些性质。具体地说,时间和频率本地化导致了时频平面的概念,傅里叶技术和小波技术之间的本质区别变得明显:傅里叶技术使用频率上的等间距向量,而小波技术使用频率上的幂律间距向量;此外,傅里叶技术使用等尺度的向量,而小波技术使用几何间距的尺度。我们以真实信号的例子结束,以发展对各种信号表示的直觉。专知便捷查看便捷下载,请关注专知公众号(点击上方蓝色专知关注)后台回复“S677”
9月6日 下午 5:02

重磅!《用于军事情报监视和侦察的蜂群系统》2022最新北约技术报告170页

执行摘要未来的北约联合部队将纳入自主和半自主的地面、空中和海上平台,以提高部队的实效性和敏捷性。这些自主系统将作为力量倍增器部署在从班到旅的所有战队梯队中。它们将帮助指挥官发展和保持对局势的了解,在更广泛的和人类操作者无法进入的地区提供持久的监视和侦察。蜂群机器人/传感器可以提供一个协作的、多机器人/传感器的系统,提供所需的集群行为,以实现系统能够覆盖这些更大的区域,共享信息,并提供单个系统无法实现的先进行为。RTG
9月6日 下午 5:02

腾讯发布国内首份《金融AI发展白皮书》,78页pdf,聚焦金融行业数字化升级

9月3日,2022世界人工智能大会腾讯论坛上,腾讯发布国内首份金融AI白皮书——《价值共生·2022金融AI发展研究报告》(以下简称“报告”)。报告由北京金融科技产业联盟作为指导单位,由腾讯研究院与腾讯优图实验室、腾讯云、交通银行组成的联合课题组,联动腾讯内部及金融机构业务侧,对国内多个金融机构进行了近五个月的调研,并将调研成果与课题组对金融AI的发展趋势思考进行汇总,共同编制而成。发布《价值共生·2022金融AI发展研究报告》启动仪式报告分为三大章节,从政策、行业、趋势三个层面出发,详细阐述了金融AI的发展环境与机遇、典型场景与案例、发展趋势与展望,全景呈现在数实融合加速的时代背景下,金融与AI深度融合创新所产生的积极影响和趋势洞察。人工智能作为一种“新基建”,正在与实体经济深度融合,推动社会及各个产业的数字化转型、智能升级和融合创新。报告指出,近年来,人工智能技术正不断发展,并与金融业务深度融合,衍生出新业态、新场景,深刻影响金融业的发展模式,同时也为金融服务夯实“安全底座”。在政策层面,政策引导金融与AI融合发展,金融AI迎来新阶段。报告从国际政策、国内政策、行业政策三个方面,介绍了金融AI发展的环境和机遇。近年来,从国际到国内,从社会整体到金融行业,政策层面不断出台战略规划,积极推动人工智能与金融的融合,深化AI的金融应用。报告指出,从政策趋势上看,金融AI发展前景广阔。随着全社会数字化的推进,金融机构与供应链、产业链上下游数据的贯通,以及跨界合作的推进,人工智能将为金融机构的业务提供更多方面、更好效果的助力作用,赋能金融机构降本增效、提升服务体验。在行业层面,AI赋能智能金融场景创新,金融服务能力不断提升。在AI与金融的加速融合下,催生出了智能营销、智能识别、智能理财、智能风控、智能客服等多种提升金融价值的场景。报告通过这五个场景和五个案例,展示了金融AI在我国目前发展现状。以交通银行融合了计算机视觉、机器学习、人工智能等新技术的“统一图像识别平台”为例,腾讯优图通过引入多模态技术提高信息抽取的泛化性能,助力解决非标准文档的OCR信息结构化提取,提高图像、单据识别率,推动业务效率以及用户体验提升。同时,该平台在信息录入等方面时长降低98.4%,且准确率高,能够大量节约人力成本。在趋势层面,金融AI创新前景广阔,行业持续向好发展。在金融机构数字化转型持续加速的背景下,报告的趋势篇从技术的深度、场景的广度、服务的可信度三方面,展望了金融AI未来发展的趋势。首先,从技术方面来看,以语音识别技术、视觉技术、全真互联技术为代表的技术不断发展成熟,将催生更多新业态,驱动行业创新发展。其次,从场景方面来看,在技术的深度不断加强的基础下,场景覆盖的广度也将不断向外拓展,实现全流程的数智化。最后,在安全保障方面,零信任架构、隐私计算技术的持续升级,将夯实金融机构在数据融通领域的可信基础。在报告发布现场,腾讯云副总裁、腾讯优图实验室总经理吴运声表示:“人工智能和机器学习已经成为金融行业可持续发展和增长的关键。随着人工智能技术的不断发展,在金融行业,人工智能的应用经历了标准能力应用探索、细分业务领域垂直深化阶段后,已进入全面应用和持续创新的新阶段,人工智能将用于更广更多元化的产品形态和功能。我们相信,人工智能+金融的探索仍有广阔空间,我们愿与业界携手共创,共赢数智未来。”腾讯云副总裁郭仁声表示,这份报告呈现在数实融合加速的时代背景下,金融与AI深度融合创新所产生的积极影响和趋势洞察。人工智能是金融科技的重要组成部分,也是金融机构数字化转型的重要技术支撑。不仅通过降本增效提升了银行价值,通过“千人千面”的7*24小时服务提升了客户服务水平,更通过解决信息不对称问题,着力解决小微企业信贷难题、切实服务实体经济,提升了社会价值。腾讯研究院副院长杜晓宇在发布现场做了《金融AI:人工智能浪潮下的金融变革》的分享,他表示,人工智能是金融科技的重要组成部分,也是金融机构数字化转型的重要技术支撑。通过与金融业务的深度融合创新,人工智能赋能金融业务实现多方面的价值提升。不仅通过降本增效提升了银行价值,通过“千人千面”的7*24小时服务提升了客户价值,更通过解决信息不对称问题,着力解决小微企业信贷难题、切实服务实体经济,提升了社会价值。专知便捷查看便捷下载,请关注专知公众号(点击上方蓝色专知关注)后台回复“F78”
9月4日 下午 5:19

【2022新书】构建微服务:设计细粒度系统,615页pdf

随着组织从单一应用程序转向更小的、自包含的微服务,分布式系统已经变得更加细粒度。但开发这些新系统也会带来一系列问题。这个扩展的第二版对构建、管理和扩展微服务体系结构时需要考虑的主题进行了全面的介绍。通过清晰的例子和实用的建议,作者Sam
9月4日 下午 5:19

【MIT博士论文】异构医疗数据表示学习,193页pdf

由于医疗数据的多样性和数据收集和注释的费用高昂,数据不足和异质性是表示学习在医学机器学习中的挑战。为了从如此有限和异构的医疗数据中学习可泛化的表示,我们的目标是利用各种学习范式来克服这个问题。在本文中,我们系统地探索了有限数据、数据不平衡和异构数据的机器学习框架,使用跨领域学习、自我监督学习、对比学习、元学习、多任务学习和鲁棒学习。我们提出了不同医疗应用的研究,如临床语言翻译、超声图像分类和分割、医学图像检索、皮肤诊断分类、病理元数据预测和肺部病理预测。https://dspace.mit.edu/handle/1721.1/144745我们首先关注有限的数据问题,这在医学领域很常见。我们利用具有相同锚点的无监督嵌入空间对齐方法,在有限且不配对的医学语料库中学习临床语言翻译的跨领域表示,并使用统计语言建模进行句子翻译。使用临床正确性和可读性的指标,开发的方法在单词和句子级别的翻译中优于基于词典的算法。为了更好地学习有限数量的超声图像的数据表示,我们随后采用了自我监督学习技术,并将相应的元数据作为多模态资源集成,以引入归纳偏差。我们发现,与标准迁移学习方法相比,通过开发的方法学习的表示可以获得更好的下游任务性能,如超声图像质量分类和器官分割。接下来,我们放大数据不平衡问题。本文探索了对比学习的用途,特别是孪生网络,从不平衡的眼底成像数据集中学习表示,用于糖尿病视网膜病变图像检索。与标准的监督学习设置相比,我们使用从Siamese网络学习的表示获得了可比较但可解释的结果。我们还利用极不平衡的长尾皮肤图像数据集进行皮肤病分类的元学习。我们发现,使用元学习模型和使用常规类不平衡技术训练的模型集成可以产生更好的预测性能,特别是对于罕见的皮肤病。最后,针对异构医疗数据,我们开发了一个多模态多任务学习框架来学习病理元数据预测的共享表示。我们利用多模态融合技术集成幻灯片图像、自由文本和结构化元数据,并采用多任务目标损失来引入学习时的归纳偏差。这比标准的单模态单任务训练设置产生更好的预测能力。我们还应用鲁棒训练技术来学习可以解决两个胸部x射线数据集分布转移的表示。与标准训练相比,我们发现当存在偏移时,鲁棒训练提供了更好的容忍度,并学习了肺病理预测的鲁棒表示。本文的研究并不详尽,但对在有限和异构的医疗数据设置下利用机器学习帮助临床决策进行了广泛的了解。我们还提供了见解和警告,以激发利用低资源和高维医疗数据的机器学习的未来研究方向,并希望对现实世界的临床产生积极的影响。专知便捷查看便捷下载,请关注专知公众号(点击上方蓝色专知关注)后台回复“M193”
9月3日 下午 5:04

《即时战略游戏和工业应用的安全深度强化学习》2022最新博士论文

深度强化学习因其在解决复杂的视频游戏和工业应用方面的成功而引起了工业界和学术界的广泛关注。最近,硬件和计算方面的进步成倍地增加了计算能力的可用性,促进了深度神经网络的训练。这些网络可以从高维数据中学习RL行为策略,并且比精确的表格解决方案表现得更好,尽管需要相当多的计算机资源。游戏是评估强化学习(RL)算法的行为特性和规划效率最常用的应用之一。它们可以提供训练深度学习模型所需的数据结构和数量。专门制作的游戏可以表达现实世界的工业应用,以减少设置成本,同时大幅提高可重复性。RL可以提高专家系统占主导地位的工业应用的效率,减少人工和潜在的危险劳动。应用工业强化学习的问题是,传统方法是通过试验和错误来学习。正因为如此,RL智能体在学习过程中存在遇到灾难性事件的风险,这可能会对人类或设备造成损害。因此,使用游戏来训练和研究安全的RL智能体很有吸引力。即时战略(RTS)游戏由于其高维的状态和行动空间而特别吸引人。此外,RTS游戏与工业和现实世界的应用有许多共同的属性,如同时行动、不完美信息和系统随机性。最近的进展表明,无模型RL算法可以在《星际争霸II》这样的游戏中学习到超人的表现,同样使用了大量的计算能力。因此,缺点是这些算法昂贵且难以训练,使得将同样的方法用于工业应用具有挑战性。在开源环境中也有大量的状态空间复杂性的差距。这就限制了算法的评估,使其只适用于工业应用中充分操作所需的任务子集。游戏环境:本论文通过提出六个新的游戏环境来解决环境差距问题,以评估几个任务中的RL算法。Deep
9月3日 下午 5:04

【Manning新书】 Python时间序列预测,458页pdf手把手教你实战时序建模

从数据中的基于时间的模式构建预测模型。掌握统计模型,包括时间序列预测的新的深度学习方法。Python中的时间序列预测将教你从基于时间的数据构建强大的预测模型。你创建的每个模型都是相关的,有用的,并且很容易用Python实现。您将探索有趣的真实世界数据集,如谷歌的每日股票价格和美国的经济数据,快速从基础发展到使用深度学习工具(如TensorFlow)开发大规模模型。Python中的时间序列预测(Time
9月3日 下午 5:04

【Nature. Mach. Intell. 】基于Transformer的多肽-HLA I类结合预测和疫苗的新生抗原序列设计

block,TransPHLA分别生成肽和HLA的embedding。接下来,这些embedding将分别作为Encoder
3月30日 下午 4:22

7篇最新【Nature. Mach. Intell. 】图神经网络论文汇集

方法中对分子的拓扑结构和几何结构进行编码可以改进分子特性预测。论文链接:https://www.nature.com/articles/s42256-021-00438-4正如
3月26日 下午 7:32

AI如何促进态势感知?2022美国空军AFRL等「态势感知」万字综述论文,24也pdf阐述智能战场态势感知技术、挑战和前景

不仅对指挥官而且对下马操作员都是必不可少的。为了使下车操作员有效参与,他们不仅必须获取和理解有关其环境的信息,而且还必须利用这些信息来预测不久的将来的事件,从而相应地计划和调整他们的行动。图
3月19日 下午 6:43

【干货书】Pytorch创建和部署深度学习应用,294页pdf

下一步,我们将学习深度学习,这种机器学习方法将在瞬间改变我们周围的世界。在这本实用的书中,您将加快使用Facebook的开源PyTorch框架的关键思想,并获得您需要创建自己的神经网络的最新技能。Ian
3月18日 下午 5:31

如何造出逼真图像?南洋理工Zheng博士论文《基于深度生成学习的逼真图像合成》197页pdf阐述视觉合成工作

机器如何创造逼真的图像?这是个有意思的问题。深度学习算法的发展为这个问题的解决带来了机会。南洋理工大学Chuanxia
3月9日 下午 5:00
2月14日 下午 5:38

【Manning新书】可解释人工智能: 构建可解释机器学习系统,144页pdf

可解释性AI是打开AI黑盒的解释性技术的实践指南。本实用指南将前沿研究简化为透明和可解释的AI,提供实用的方法,您可以轻松地用Python和开源库实现。从所有主要的机器学习方法的例子,这本书演示了为什么AI的一些方法是如此的不透明,教你识别你的模型已经学习的模式,并提出了建立公平和公正的模型的最佳实践。当你完成这一任务时,你将能够提高你的AI在训练中的表现,并构建鲁棒系统来抵消偏差、数据泄漏和概念漂移带来的错误。https://www.manning.com/books/interpretable-ai随着图像识别、自然语言理解和桌面游戏等领域的突破,人工智能和机器学习正在彻底改变医疗、制造、零售和金融等各个行业。随着复杂的机器学习模型被部署到生产中,理解它们变得非常重要。缺乏深刻的理解会导致模型传播偏见,我们在刑事司法、政治、零售、面部识别和语言理解中都见过这样的例子。所有这些都对信任产生不利影响,从我的经验来看,这是企业抵制在整个企业部署人工智能的主要原因之一。解释人工智能是研究和行业的一个热门话题,因为现代机器学习算法是黑盒,没有人真正了解它们是如何工作的。此外,在GDPR的“解释权”下,欧盟现在有解释人工智能的规定。因此,对于人工智能从业者来说,可解释性人工智能是一个非常重要的话题。有一些资源可以与这个活跃的研究领域保持同步,如调研论文、博客文章和一些书籍,但没有一个单一的资源涵盖所有对实践者有价值的重要技术。也没有关于如何实现这些尖端技术的实用指南。本书旨在通过提供对可解释性技术的简化解释,以及如何在Python中使用开放的公共数据集和库实现这些技术的实用指南,来填补这一空白。本书将展示代码片段,并分享源代码,以便您跟随和再现书中的图形和视觉效果。这本书旨在为您提供实现和部署最先进的可解释性技术的实用技巧。具备概率论、统计学、线性代数、机器学习和Python的基本知识。专知便捷查看便捷下载,请关注专知公众号(点击上方蓝色专知关注)后台回复“X44”
1月28日 下午 5:07

【UCLA孙怡舟】知识图谱表示学习技术进展概述: 从浅层嵌入到图神经网络,85页ppt

孙怡舟,加州大学洛杉矶分校(UCLA)副教授,现任加州大学洛杉矶分校计算机科学系副教授,之前曾担任美国东北大学助理教授,2012年博士毕业于美国伊利诺伊大学香槟分校,师从数据挖掘领域领军人物韩家炜教授。她是挖掘异构信息网络的先驱研究员,最近专注于图形/网络的深度学习。知识图谱表示学习:
2020年11月14日

【INTERSPEECH2020】元学习与自然语言处理应用,台大李宏毅老师讲解。附视频与PPT

2020大会,将转为全线上会议。届时语音相关领域海内外知名专家学者将共聚一堂,交流相关研究领域的最新成果和发展趋势。李宏毅(Hung-yi
2020年11月5日

哥伦比亚大学最新《机器学习》课程,Fall-B 2020 (Machine Learning)

networks专知便捷查看便捷下载,请关注专知公众号(点击上方蓝色专知关注)后台回复“COMS”
2020年11月3日

当无人机与视觉相遇?天津大学等发布最新「无人机视觉检测和跟踪」综述论文:过去、现在和未来

TRACK的目的是在视频序列中从一组预定义的类别中定位目标实例。也就是说,给定一系列视频片段,需要算法以实值置信度为每个视频帧(如果有)中的每个目标实例生成一组边界框。图5:在VID和MOT
2020年1月21日

推荐系统顶会 RecSys2019 最佳论文奖出炉!可复现性成为焦点—18篇顶级会议只有7篇可以合理复现

为了回答这些问题,本文进行了一个系统的研究,我们分析了一些研究论文,这些论文使用深度学习的方法,为top-n推荐任务提出了新的算法方法。为此,我们浏览了KDD、SIGIR、TheWebConf
2019年9月17日

密歇根大学40页《20年目标检测综述》最新论文,带你全面了解目标检测方法

符合AutoML:未来的一个方向是使用神经结构搜索,减少设计检测模型时的人为干预(例如,如何设计引擎,如何设置锚盒)。AutoML可能是目标检测的未来。
2019年5月14日

斯坦福大学李飞飞教授新课-视觉识别的卷积神经网络

助教团队多达23人。【课程内容】第一节:课程简介:计算机视觉概述、历史背景课程介绍第二节:图像分类:数据驱动的k近邻方法,线性分类I讨论课:Python,Numpy,Google
2019年4月10日

用深度学习做文本摘要

https://towardsdatascience.com/text-summarization-using-deep-learning-6e379ed2e89c
2019年3月30日

可解释机器学习:打开黑盒之谜(238页书籍下载)

这本书不适合那些试图从头开始学习机器学习的人。如果您是机器学习的新手,有很多书籍和其他资源可以学习基础知识。作者推荐Hastie,Tibshirani,Friedman(2009)的书“The
2019年1月15日

打开人工智能黑箱:看最新16篇可解释深度学习文章,带您了解增强AI透明性

然后,我们根据这些方法的发展历史,系统地概述这些方法。我们还分析了这些方法的差异以及如何组合不同的体系结构。最后,简要概述了它们的应用,并讨论了未来可能的发展方向。
2019年1月13日