AI日报|Meta开源多感官AI;GPT-2神经元可被解释;OpenAI将出席听证会;Anthropic为AI编写“宪法”...
「每天重要的新闻不会超过5条」
记者|张司钰编辑|吴洋洋
Key Points
Meta开源多感官AI,除了跨图文,还跨深度、热量和运动数据。
OpenAI用GPT-4解释GPT-2的 30 万个神经元,开启AI解释AI序幕。
OpenAI CEO将在国会首次就技术问题作证,涉及人工智能的监管。
Anthropic为AI编写了一部“宪法”,谈的也是价值观。
大公司: Meta开源多感官AI联动6种模态
5月9日,Meta AI宣布开源ImageBind。ImageBind是什么?
该模型可以跨图像、文本、音频、深度、热量(红外辐射)和运动(惯性传感器)数据等6种不同的模态。与传统的文生图、文生视频等多模态模型相比,ImageBind多了深度、热量和运动等无力空间的数据。ImageBind意味着什么?
ImageBind是Meta创建多模态AI系统的一部分,目标是从所有相关类型数据中学习。随着模态数量的增加,ImageBind有助于Meta未来开发更接近真实世界的AI系统,比如结合3D和IMU传感器,设计多感官、更接近真实的虚拟世界。总之,Meta显然还没放弃它的元宇宙梦想。不过它更引人注意的AI战略是开源,以下是它之前开源的AI模型:· 3月8日,Meta的AI大模型LLaMA被泄露,不少网友通过4chan论坛上发布的资源,成功下载了70亿参数的LLaMA;· 4月7日,Meta开源可实现“任意图像分割”的基础模型(Segment Anything Model,简称SAM)。
参考链接
https://ai.facebook.com/blog/imagebind-six-modalities-binding-ai/
论文: OpenAI用GPT-4解释GPT-2的30万个神经元
5月9日,OpenAI在官网发布《语言模型可以解释语言模型中的神经元》(Language models can explain neurons in language models)论文,指出只要调用GPT-4,即可计算出其他架构更简单的语言模型上的神经元行为。OpenAI的可解释性研究是怎样的?
团队首先使用GPT-4生成神经元行为的自然语言解释,对其评分,再将其应用于另一种语言模型中的神经元上,这里OpenAI选择了GPT-2作为试验样本。其试验过程为:使用GPT-4生成解释;使用GPT-4模拟被解释的神经元会做什么;根据模拟激活与真实激活的匹配程度对解释评分。这项研究有怎样的突破?
大语言模型的黑箱问题一直存在。以前我们需要手动检查神经元、确认其代表数据的哪些特征,才能了解AI模型各个组件在做什么,这需要高昂的成本,而且不一定能找到解释。但现在,GPT的自动化方法使AI解释AI变得更可行。总之,虽然绝大多数解释的得分还不高,OpenAI还是迈出了用AI解释AI的重要一步。
论文地址:https://openaipublic.blob.core.windows.net/neuron-explainer/paper/index.html
你也可以点击下面这个链接,看看AI发现了哪些有趣的神经元(btw,我们看到了微笑神经元、时间神经元,还有成功神经元):
https://openaipublic.blob.core.windows.net/neuron-explainer/neuron-viewer/index.html
监管: OpenAI CEO将在美国国会首次就技术问题作证
5月10日,OpenAI首席执行官山姆·奥特曼(Sam Altman)表示将于5月16日首次向负责隐私、技术和法律的参议院司法小组委员会作证。目前美国参议院多数党领袖查克·舒默(Chuck Schumer)已将监管人工智能列为优先事项。这场听证会将围绕什么议题?
这场听证会的标题是“人工智能的监督:人工智能的规则”。目前关于听证会议程的细节仍然很少。预计议程将围绕:随着政府和企业开始在从医药、金融到监视员工的各个领域使用AI,政府可以采取哪些行动或制定怎样的法规和标准,以确保人们从AI技术中获利,并减少不利因素。除了山姆·奥特曼还有谁参加?
IBM首席隐私官克里斯蒂娜·蒙哥马利(Christina Montgomery)和纽约大学名誉教授盖瑞·马库斯(Gary Marcus)也将参加本次听证会。虽未参与3月22日“暂停”社区驱动的AI开发六个月的联名信签署,但马库斯是“暂停”的全力支持者。奥特曼和蒙哥马利则反对“暂停”。总之,这次听证会开启了美国国会监督并阐明AI先进算法和强大技术的工作。但其效果仍然难以预料——结果更多时候取决于国会相信哪些专家。有观点认为,如果国会决定对AI采取严厉的监管措施,可能对创新造成寒蝉效应,并影响由GPT技术支撑的诸多部门。
参考链接:
https://www.reuters.com/world/us/openai-ceo-testify-us-senate-next-week-amid-questions-about-technology-2023-05-10/
监管: Anthropic为AI编写了一部“宪法”
5月9日,人工智能初创公司Anthropic公布了一套针对AI发展的书面道德价值准则,概述了AI聊天机器人Claude与用户互动时必须遵循的一系列价值观和原则,以期构建更加可靠、可解释和可操纵的AI系统。这部“AI宪法”的亮点在哪里?
这次公布的AI道德价值准则也被该公司称为“Claude宪法”,这些准则借鉴了包括联合国的《世界人权宣言》、苹果公司的数据隐私规则、DeepMind的Sparrow(麻雀)模型原则、Anthropic的AI研究实验室原则,比如不会告诉用户如何制造武器,也不会使用带有种族偏见的语言。同时,“Claude宪法”在训练模型还考虑非西方观点,使其选择最不可能被视为对非西方受众有害或冒犯的回应。“AI宪法”的提出背景
一周前,Google、微软、OpenAI和Anthropic四家公司的CEO们受邀在白宫与美国副总统哈里斯会面,讨论有关人工智能的关键问题。哈里斯在一份声明中表示:“技术公司需要承担道德和法律责任来确保其产品的安全。每家公司都必须遵守现行法律,保护美国公民。”总之,文本生成AI存在巨大缺陷,在社交媒体等互联网资源的训练下,它们不仅会生成带有性别歧视、种族主义倾向的内容,还会编造超出其知识范围的问题的答案。目前,行业标准是通过基于人类反馈的强化学习(RLHF)使AI系统符合人类偏好,但这可能使劳工过度暴露在可能引起创伤的材料中。基于“Claude宪法”采用的Constitutional RL框架,可能会减少训练过程中产生的对人的伤害,同时使AI系统更可靠。
参考链接:https://www.anthropic.com/index/claudes-constitution
-END-
喜欢就关注我们吧,记得“设为星标”哦~
接下来将更新:
王小川专访
谁该为生成式AI的内容负责
……
与记者交流,可添加微信(请备注公司名称和姓名):
王杰夫 微信号: wjfsty
张司钰 微信号: helianthus351
吴洋洋 微信号: qitianjiuye
再次,喜欢就关注我们吧,记得“设为星标”