AAIG的专家们用多学科的专业视角,每月从全球收集和筛选关于算法治理和可持续发展的全球态势。重点关注算力时代的新技术、新风险、新实践、以及对它们新解释。11月(上)共21篇文章5080字,分【本月洞察、行业动态、前沿技术、产业实践】四个板块展开。本月AIGC技术持续火爆圈内外,依旧是那颗最闪耀的明星。乘着stable diffusion的东风,无论是学界,工业实践,还是产业生态都在持续爆发增量。AI创造开始成为真正意义上的生产力。学术视角来看,目前人类指导AI绕不过Prompt来注入知识和可控性,各大论坛也自发组织起prompt的经验沉淀,敏锐的学者们已经着力于将Prompt Engineer转换为automatic,让机器吸收并优化人类生成提示的经验,进一步提升可用性;然而也有反对者认为其本末倒置,在沙子上搭积木。由于AI总体以效果来说话,所以这类研究还是势不可挡。工业实践方面,以特斯拉前首席科学家安德烈卡帕西为代表,在AIGC的生产效率及人机交互方面大幅优化。国内几家知名AI Lab则重点放在中文提示方面的优化,以及降低领域内微调的成本,这一下就打开了全民调参的局面。产业生态方面,创业者对于AI创作的野心似乎更大,不仅是一张图,一个视频,而是在元宇宙世界中生成有性格甚至人格的数字人,上亿融资,蓄势待发。不过这也更深触及到了全社会重点关注的AI伦理等问题。除了AIGC外,在AI for science领域也爆点十足。生物领域,Meta接过AlphaFold大旗,公开了包括微生物6亿种蛋白质结构。神经学领域,在这个我们现有AI技术遇到理论瓶颈的阶段,NeuroAI又被认为是迈向下一代人工智能的着力点,一篇多学科元老级人物合著发表的白皮书,又将这把火烧的更旺,不过不少学者持悲观态度,类似于“我们现代飞机比鸟类飞行的更好,而原理和鸟完全不同”,神经学到底能不能引领技术革命值得怀疑。笔者认为,诚然,现代AI技术在某些具体任务上超出人类,但是要知道,深度学习的perception结构就是上世纪60年代从神经学中得到的启示。人脑和鸟类飞行也完全不是一回事,我们可以说明白了空气动力学,但是对于人类认知的理解只有冰山一角,神经学的进步对于AI的促进是显而易见的。争议的本身不应该是神经学有没有和AI结合的研究价值,而是我们对于神经学本身的研究工具和方法完全不足,最后,引用门捷列夫的名言:没有测量就没有科学。该文件旨通过“赋予美国各地的个人、公司和政策制定者权力,并满足拜登总统的呼吁,让大型科技公司承担责任”,以“设计、使用和部署自动化系统的五项原则,从而在人工智能时代保护美国公众”。本文聚焦算法审计制度,深度剖析其治理效能,凝练探析其构造原理和制度逻辑,紧密结合我国算法治理的客观现状,探索算法审计制度的本土化方案。有以下特点:1.采用RoPE相对位置编码,与传统的固定位置编码相比能更好处理长文本,比如理解整篇文章甚至整本书。2.使用62k个token的SentencePiece并保留其中的空格和Tab,这样更有利于下游任务。以及有3个额外能力:1.可以对自己的决策作出解释。2.可以对结果进行自我纠正和检查能力。3.记忆能力,如果输入内容完美匹配前文,即使内容很长、出现频次很低,模型依然可以准确的生成剩下的部分。IDEA CCNL开源了第一个中文版本的stable diffusion模型“太乙 Stable Diffusion”,让中文的世界真正拥有具备中国文化内核的AIGC模型。在 AIGC 中,人的作用是重要的,生成式 AI 应悄无声息地融入大众生活中并更好地帮助拓展人类的想象力边界。因此,IDEA CCNL除了基础模型和基础算法的研究之外,还在研究更精准的文本生成和基中文于文本的交互式图片编辑。以太乙为核心的 AIGC 模型会持续更新和升级。本文作者将LLM视为执行由自然语言指令指定程序的黑盒计算机,并研究如何使用模型生成的指令来控制 LLM的行为。作者通过对24个NLP任务的实验分析指出,自动生成的指令明显优于先前的LLM Baseline,且APE设计的提示可以用于引导模型真实性和信息量,以及通过简单地将它们预设为标准上下文学习提示来提高小样本学习性能。Meta 使用 AI 技术预测了约 6 亿种蛋白质结构,这些蛋白质来自细菌、病毒和其他尚未被表征的微生物。这是最大的高分辨率预测结构数据库,比任何现有的蛋白质结构数据库都要大 3 倍,并且是第一个全面、大规模地涵盖宏基因组蛋白质的数据库。本文介绍了一个低成本、高收益的AI模型自动压缩工具,无需修改训练源代码,通过几十分钟量化训练,保证模型精度的同时,极大的减小模型体积,降低显存占用,提升模型推理速度,助力AI模型的快速落地。使用ACT中的非结构化稀疏和蒸馏技术训练PP-HumanSeg模型,与压缩前相比在ARM CPU上推理加速1.49倍。本文分析了分布式GNN训练中的三个主要挑战,即大量特征通信、模型精度损失和工作负载不平衡。然后,介绍了分布式GNN训练优化技术的一种新的分类法,以解决上述挑战。新的分类法将现有技术分为四类:GNN数据分区、GNN批处理生成、GNN执行模型和GNN通信协议。一个新设计的Stable Diffusion交互界面:Stableboost。特点:1.可操作性强2.图片的数量可以从1~200之间任意选择3.筛选功能、二次筛选4.可以生成视频。本综述旨在提供100多篇关于图数据对抗攻防策略的论文的总体概况,并建立一个涵盖大多数图对抗学习模型的统一表述。此外,还比较了不同的图攻击和防御及其贡献和局限性,并总结了评估指标、数据集和未来趋势。希望本次综述能够帮助填补文献空白,促进这一有前景的新领域的进一步发展。Colossal-AI提出了首个同时开源完整训练配置参数和训练脚本的方案。这种方案一方面可以让用户不再局限于现有的权重推理,更加灵活地训练出针对新下游任务的最新版细分模型,扩大应用范围;另一方面,由于引入了显存优化等技术,方案支持在普通个人电脑的单张显卡上快速完成微调任务。
BERT等基于Transformer的预训练语言模型在语义句子匹配方面取得了显著成果。但是现有匹配模型一直有很严重的问题,即模型存在捕捉细微差异的能力不足。为此作者另辟蹊径,针对匹配任务独有的问题挑战,创新性的将差异信息融合的预训练模型中,这种方法有很高的借鉴意义。
本文提出一种新的词汇增强方法InterFormer,实现NFLAT,该方法内存用量可减少50%,且实验结果优于最先进的character-word混合模型。
目前绝大数的语言模型都是通过标注好的数据进行训练,并希望模型输出结果像标注的正例数据一样好,然而却忽略了负例数据的重要性。因为模型训练仍然需要少量的负面数据来提高模型效果。本文就从这个角度出发,构建了一个新的损失函数将正例数据和负例数据融到一起进行模型训练。
NeuroAI是神经科学和人工智能的交叉点,这一新兴领域假定,对神经计算的更好理解将帮助催化人工智能的下一次革命。神经科学是否推动了人工智能?未来的人工智能是否需要神经科学?近期发表的NeuroAI白皮书认为,神经科学长期以来一直是推动人工智能(AI)发展的重要驱动力,NeuroAI领域的基础研究将推动下一代人工智能的进程。
阿里巴巴集团联合中国信通院编写了《人工智能治理与可持续发展实践白皮书》,全面总结了阿里巴巴在人工智能治理与可持续发展领域的实践。1.调度决策算法是影响劳动者权益的成因2.饿了么持续通过算法优化保障骑手权利的实践方案《追AI的人》是一档由阿里巴巴人工智能治理与可持续发展研究中心(AAIG)联合高校和产业界发起的AI治理交互栏目。重点关注分享人工智能新技术、AI治理新观点、可持续发展新风向。中科院信工所在读博士生宋晓辉分享:1、对话情感分析问题的介绍2、基于有监督原型对比学习的对话情感分析 EMNLP 2022 3、对话情感分析的一些展望。
与现有最佳基于生成模型的攻击方法TTP成功率是46.47%,而我们的方法可以达到75.93%,超过现有最佳方法29.46%。我们的方法是目前有目标迁移性攻击效果最佳的方法。此外,也在谷歌识图上测试了迁移攻击算法的有效性。
倚天710,是平头哥造芯以来交出的首款通用型CPU。首战跑分就超出业内标杆20%,能效比提升50%以上。主要用于云计算场景,基于Arm v9架构,首发即刷新了Arm服务器芯片性能纪录。作为通用芯片,需要囊括接收、处理、运算服务器计算机内部所有信息,是业内公认的设计难度最高的芯片之一。UMM是首个基于大脑念流的前沿心识AI框架,旨在突破现有AI的限制,通过借鉴人类大脑的工作机理,赋予AI系统主体性,同时兼具复杂任务处理能力和人格化的标签。基于UMM开发了MindOS平台,可以赋予AI系统真正的思维机制,面对开放、复杂的环境,像人脑⼀样整体性进化和学习,用户可以在MindOS为数字人设定性格、人设、喜好、记忆。腾讯研究院法律研究中心研究推出了《人工智能时代的算法治理报告2022——构建法律、伦理、技术协同的算法治理格局》。报告立足于算法的技术趋势和行业应用现状,从法律监管、伦理治理、技术治理三个层面梳理总结国内外在算法治理方面的实践做法,以期通过多元参与、敏捷灵活、精准有效的算法治理,保障算法技术创新与应用健康、有序、繁荣发展。