图灵奖得主Yann LeCun舌战参议院:捍卫Llama开源大模型
点击上方“图灵人工智能”,选择“星标”公众号
您想知道的人工智能干货,第一时间送达
文:城主
前言
近日,AI三巨头之一的杨立昆Yann LeCun在参议院接受了质询,议员们的问题基本都围绕着Llama大模型是否应该开源展开。Yann LeCun给予了有理有据的回应。
Llama对于AI学界和企业界的重要性不言而喻,作为当今世界上毫无疑问排名第一的开源LLM大模型,Llama2已经形成了一个很好的发展社区,而且一切才刚开始。很多的垂直生态和衍生模型都基于Llama2火热开展中。虽然吃瓜群众都比较喜欢喷Meta,但在AI开源贡献上,城主认为全世界都是要感谢Meta。
而作为Meta AI的扛把子,杨立昆面对面的接受参议院议员询问,捍卫Llama顶尖大模型开源对人类社会的正当性和必要性,这是让人尊敬的。
喜欢看视频的读者以下是传送门:
【LeCun舌战参议院实录:捍卫Llama开源大模型【LeCun个人Cut】-哔哩哔哩】 https://b23.tv/Tk8B23b
=以下是本城根据谈话内容重写的全文=
这并不意味着每个模型都可以或应该开放。专有模型和开源模型都有其作用,但开源基础模型应该是构建活力四射的生态系统的基石。开源模型创建了行业标准,就像90年代中期的互联网模型一样。通过这种协作努力,AI技术将更快地发展,变得更加可靠、更加安全。
---
听到您对这些原则的认同,是一个良好的开端,我们会继续跟进。目前,美国智能领域对人工智能的使用提出了许多疑问,首先是问责制的问题。如果人工智能要为智能界的监视决策提供信息,我想问的是,当一个美国人被监视并确定违法时,应由谁负责?
您认为META的人工智能和信任安全团队,或者任何人工智能开发团队,是否有能力真正了解潜在的风险和收益,从而做出是否应该开发某一系统,将其投入实际使用或开放给公众的决定?
LeCun博士,我想我会将这个问题交给您来回答。我是一个负责为商业、司法和科学部门拨款的小组委员会的首席共和党人。NSF正在进行的一项工作就是国家人工智能研究所计划。我很高兴听到您或我们的任何小组成员对该计划的成果或能力提出批评或赞扬。我们如何才能确保该计划适应大多数由私营部门进行的研究?
关于如何定制现成的人工智能模型,它们是如何组合在一起的?政府如何才能最好地利用商业的、现成的和定制的人工智能技术,以确保充分发挥人工智能的能力,特别是在智能界?
参议员先生,我认为目前人工智能市场的状态以及我预测的发展方向会有点像互联网。因为会有一些本质上是开源的通用平台,由如MITA这样的公司生产,并可能有学术界的贡献。在这些平台之上,会产生商业产品,这些产品不一定是开源的,它们可能会以各种方式进行商业化。还会有一些定制化的、针对特定应用进行微调的解决方案,无论是在政府部门、教育、工业、制造服务,还是娱乐,都是如此。我认为这就是未来的模式。这是我们今天在软件各个领域,当然也包括互联网,所观察到的模型类型。我认为这就是发展的方向。谢谢。
一个非常实际的问题。人工智能生成图像的水印可行性如何?坦白地说,这是我们所关心的,因为我们很可能受到人工智能生成的虚假信息的影响,非常熟练地模仿我们的脸、我们的声音、我们的手势,但完全是虚假的。要求人工智能在 Facebook、TikTok 或 Instagram 上生成的图像都带有水印或标签,以便消费者知道他们所看到的并非真实,这在技术上可行吗?当我们考虑监管时,这是我们应该考虑的事项吗?
参议员先生,确实,这是一个非常实际的问题。从技术上讲,这是可行的。主要的问题在于采纳全行业的通用标准。因此,需要有一种通用的方法来以可见或不可见的方式使用隐写术加水印。事实上,这可以通过图像、视频和音频的生成过程来实现,以便计算机能够检测这个系统是否是由生成式人工智能系统生成的。但是,用户必须接受它,并使用符合该标准的产品。因此,这需要全行业范围内的采纳。对于文本来说,问题更为复杂,没有简单的方法可以在文本内隐藏水印。人们试图通过调整不同单词的频率来实现这一点,但效果尚不完美。但对于文本来说,文本是由人类产生的。它不像照片那样可以随意传播。发布文字的人最终应该对其内容负责,因此我们不应该有像第230条那样的责任保护。
出版商应该对他们的作品负责吗?主席,我希望专家组能帮助我们解决这个水印问题,因为这是我们需要理解的问题。这很可能成为我们即将制定的任何立法的一部分。我们需要您在这方面的专业知识,消费者应该知道他们所看到的是什么。谢谢。
参议员,我不是律师,但我知道第230条对互联网的发展至关重要。我当然愿意让您与专家联系。
如果每个平台都有不同的标准,我们可能会有七、八或十个不同的标准,这将不利于实现我们的目标。
欧洲目前已经在开发一种模式,或者至少他们正在通过欧洲议会制定这种模式,来监管人工智能。他们确定了高风险类别和其他两个风险较低的类别。您有机会了解这个模式吗?您对他们采取这种方法来监管人工智能有何看法?
......
然而,这项技术即将取得进展。我个人一直在从事的一个方面,以及其他许多人,是研发能够进行规划和推理的人工智能系统。当前的LLM不具备规划能力,它们没有推理能力。您不会希望将它们用于国防应用,因为它们无法进行规划。它们可以检索已经过培训的现有计划,并使之适应当前情况,但这并不是真正的规划。这更像是一种记忆检索。
因此,直到我们拥有真正能够在实际情况下进行规划的技术为止,我们现在拥有的这种技术仅限于游戏。例如,能够发挥外交作用的系统,我们刚刚与詹森博士讨论过这个问题,或者玩扑克或围棋之类的,这些系统都可以进行规划。但目前,我们还没有能够处理现实世界、进行规划的系统。这种进步可能会在未来十年内实现。我一直称之为目标驱动的人工智能。
因此,这是一种人工智能系统,它不仅仅生成一个接一个的单词,就像LLM一样,而是能够规划它们的回答,使之满足多种约束和限制。这些将是未来的人工智能系统,与现有的系统有很大的不同。它们将变得更加可控、更加安全、更加有用、更加智能。我无法准确告诉您它们何时会出现,这是未来几年的事情,也许是未来十年的事情。这是我们必须努力达成的目标。
版权声明
转自Web3天空之城,版权属于原作者,仅用于学术分享
文章精选: