查看原文
其他

美国政府与微软、OpenAI、谷歌等达成AI安全协议,并公布计划

AIGC开放社区 AIGC开放社区 2024-01-09

专注AIGC领域的专业社区,关注OpenAI、百度文心一言等大语言模型(LLM)的发展和应用落地,关注LLM的基准评测和市场研究,欢迎关注!

美东时间7月21日,美国白宫官网消息,微软、谷歌、OpenAI、Meta、亚马逊、Anthropic和Inflection七家科技公司与美国拜登政府达成AI安全协议,自愿承诺管理AI带来的各种风险,并在未来产品发布、使用等过程中遵守安全、保障、信任三大原则。(行政令地址:https://www.whitehouse.gov/briefing-room/page/2/

白宫表示,自拜登、哈里斯(副总统)上任以来积极采取行动,以抓住AI带来的巨大商业发展潜力同时保护国人的权益和安全。

作为承诺的一部分,7月21日拜登总统在白宫召见了微软、谷歌等7家公司的领导者与他们商讨了AI安全协议,以实现安全、可靠、透明的AI发展。

以下是企业为促进AI技术的安全、可靠和透明的开发和使用做出的承诺和详细计划。这些符合现有法律法规,旨在推进生成式AI法律和政策制度。

在向公众推出产品之前确保其安全

两家公司承诺,在发布AI系统之前对其进行内部和外部安全测试。这项测试将部分由独立专家进行,旨在防范一些最重要的AI风险来源,例如,生物安全和网络安全及其更广泛的社会影响。

这些公司致力于在整个行业以及与政府、民间社会和学术界,分享有关管理AI风险的信息。包括,最佳安全实践、有关试图规避保障措施的信息以及技术合作。

构建将安全放在首位的产品

两家公司承诺投资网络安全和内部安全威胁防护措施,以保护专有和未发布的模型权重。这些模型权重是AI系统最重要的部分,公司一致认为,仅在有意且考虑到安全风险时才发布模型权重,这一点至关重要。

两家公司致力于促进第三方发现和报告其AI系统中的漏洞。即使AI系统发布后,一些问题可能仍然存在,但通过强大的报告机制可以使问题快速发现并修复。

赢得公众的信任

两家公司致力于开发强大的技术功能,以确保用户知道内容何时由AI生成,例如,水印系统。这一行动使AI的创造力得以蓬勃发展,同时减少了欺诈和乱用的危险。

两家公司承诺公开报告其AI系统的功能、局限性以及适当和不适当的使用领域。该报告将涵盖安全风险和社会风险,例如,对公平和偏见的影响。

两家公司承诺优先研究AI系统可能带来的社会风险,包括,避免有害的偏见、歧视以及保护用户隐私,这些公司承诺将减轻安全隐患的出现。

两家公司致力于开发和部署先进的AI系统,以帮助解决社会面临的诸多挑战。从癌症预防到缓解气候变化,以及介于两者之间的许多事情。如果管理得当用安全的方法使用,AI可以为所有人的繁荣、平等和安全做出巨大贡献。

本次安全协议的签订,标志着企业发展健康、负责任的AI产品迈出了关键的一步。

此外,拜登正在制定一项行政命令,并将寻求两党立法,以帮助美国在负责任的AI创新方面发挥领导者作用。

本文素材来源美国白宫官网,如有侵权请联系删除

END

继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存