查看原文
其他

澳大利亚首席科学家发布快速反应报告:《生成式人工智能:语言模型和多模态基础模型》

AI与网络法团队 AI与网络法 2024-01-08

编者按



编辑丨许惠妍 曾晓洋 李卓霖


2023年3月24日,澳大利亚首席科学家发布了一份关于生成式人工智能的快速反应信息报告,这份报告是澳大利亚国家科技委员会应工业和科学部长Ed Husic议员阁下的要求于2023年2月委托编写的,主要作者是Genevieve Bell AO FTSE FAHA教授、Jean Burgess FAHA教授、Julian Thomas FAHA教授和Shazia Sadiq FTSE教授。该报告主要回答了以下两个问题:


1. 在未来两年、五年和十年内,应用大型语言模型(LLMs)和多模态基础模型(MFMs)学习技术的机会和风险是什么?


2. 自ChatGPT等模型推出以来,其他发达经济体在国际上制定的战略有哪些例子,以应对人工智能(AI)的潜在机会和影响?


大语言基础模型和多模态基础模型的应用、服务和商业模式,将创造更多的就业机会和将更广泛地被应用于工业和公共部门。同时,值得注意的是,大语言模型与多模态基础模型以及用它们建立的服务、应用程序和业务,已经放大了公众和专家对人工智能更大规模风险的长期关注。主要带来三个风险类别,分别为技术系统风险,如准确度和偏见;背景和社会风险,如对人权产生的风险;系统性的社会和经济风险,如数据隐私、安全和主权方面。


报告中指出,获得计算基础设施是生成式人工智能的关键推动因素和挑战。并提出了以下应对挑战的战略:


1. 各国应对人工智能发展制定的监管框架,其中欧盟(EU)已经提出了《欧盟人工智能法案》,加拿大、美国、英国也有自己的办法与方向。澳大利亚目前对技术的处理方式主要是通过自我监管和自愿标准方式。


2. 澳大利亚的政府、公共和私营部门组织正在对ChatGPT被认为构成的具体风险作出回应,国际标准机构也在积极制定人工智能风险评估的标准。


3. 决策者和更广泛的澳大利亚社会将在多个关键领域,对大语言模型和多模态基础模型的风险和机遇进行持续的关注,以求成功地应对其在未来五年的快速发展。


该报告我们以机翻为主,并进行了人工微调。由于篇幅原因,本文仅展示报告中的核心内容,如需获取全文翻译pdf文件,请在本公众号后台回复“澳大利亚快速反应报告”(不含双引号),供各位读者参考。



声    明

本文的所有内容均来自公开的资源和第三方,包含的链接可能会指向其他网站或资源,这些网站或资源并不由本公众号控制或拥有。本文不代表编辑的观点,以及编辑供职机构或其他相关机构的意见。本文仅为交流之用,如有任何意见,可以公众号后台私信提出。



关于AI与网络法团队:


我们的目标是分享人工智能和网络法领域最前沿的资讯与文章,为中文世界带来更多的知识增量。


本次内容参与贡献的有:


许惠妍,广东财经大学智慧法治研究中心研究人员

曾晓洋,广东财经大学智慧法治研究中心研究人员

李卓霖,广东财经大学智慧法治研究中心研究人员


联系方式:

cyberlaw2018@outlook.com


更多往期文章请点击:

继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存