欢迎大家点击在看,转发到朋友圈~~这样兔儿就更有动力写出更多好内容了~
*转载请附上本文的所有参考文献链接
*本文2000字左右
OpenAI、DeepMind将向英国政府开放模型?英国首相Rishi Sunak周一在伦敦科技周上宣布,谷歌的DeepMind、OpenAI和Anthropic已经同意向英国政府开放其人工智能模型,用于研究和安全目的。
英国首相苏纳克说,这样可以便于英国政府 "帮助建立更好的评估,从而更好地了解这些系统的机会和风险"。苏纳克本次的演讲,主要是倡导人工智能有望重塑教育和医疗等领域,预示着英国可以作为 "创新之岛 "的潜力。
"苏纳克说:"人工智能肯定是我们面前最大的机会之一。通过将人工智能模型与量子的力量相结合,"可能性是非凡的。"
2023年3月,英国政府发布了一份人工智能白皮书,提出了 "Pro-innovation "的方法,但最近苏纳克强调了 "Guardrails "的必要性。
苏纳克周一表示,英国不但想要成为科学知识的核心地区,而且要成为全球人工智能安全监管的地理家园",但英国目前还没有列出具体的监管建议和条例。
这些条例和计划的关键在于今年秋季在英国举行的全球人工智能安全峰会,苏纳克将这次峰会比喻为"联合国缔约方大会气候变化会议的人工智能版本”。
除此之外,还成立了一个基金会模式的工作组,目前投入有1亿英镑左右的资金支持,进行人工智能安全领域技术的研究,英国首先表示,英国灵活平衡的监管方式将继续使其成为有吸引力的投资地。Anthropic和OpenAI最近在英国设立了欧洲总部,Palantir上周宣布在英国设立一个人工智能研究中心。
值得注意的是,OpenAI CEO 山姆·奥特曼在2023年5月一直欧洲各国访问,与各国监管机构会面,见了包括西班牙、波兰、法国和英国的政府首脑
奥特曼首先与西班牙总理Pedro Sanchez会面,因为西班牙今年夏天担任欧洲理事会为期六个月的轮值主席国,也就是说,在人工智能规则手册的谈判的关键时刻,西班牙可以发挥很大的余地来影响讨论。而在法国、波兰和西班牙,地区政府首脑,很可能会通过欧洲理事会对欧盟人工智能规范制定的最终形式施加影响。
奥特曼也参加了伦敦大学学院的讨论活动,并在台上接受采访,提到了他对 "介于传统欧洲方法和传统美国方法之间 "的监管偏好。
2023年5月,欧洲议会两个关键委员会的成员,对委员会最初(2021年4月)提出的基于风险的人工智能监管框架的系列修正案,旨在确保通用人工智能、基础模型和生成性人工智能不属于规则范围。
欧洲议会支持基础模型的提供方,在将模型投入市场之前,应用安全检查、数据治理措施和风险缓解措施的义务,其中包括要求考虑 "对健康、安全、基本权利、环境以及民主和法治的可预见的风险"。
修正案还将要求基础模型制造商减少其系统的能源消耗和资源使用,并需要在欧盟数据库中注册,而生成性人工智能技术(如OpenAI的ChatGPT)的提供者将获得透明度义务,这意味着AI技术提供方必须确保用户被告知内容是机器生成的,并且要对其系统生成的内容采取 "充分的保障措施";并提供用于训练其人工智能的任何有版权的材料的摘要。不过,OpenAI的CEO在此次欧洲之旅中,专门抽时间与英国首相苏纳克会面,并且与友商DeepMind的Demis Hassabis、Anthropic的Dario Amodei一起和苏纳克开了个会。当然,英国仍是欧洲的一个主要经济体。另外,有一些传言说OpenAI一直在考虑在该国设立一个本地总部。而Anthropic刚刚宣布了自己的伦敦办事处。对于OpenAI来说,至少在监管方面,英国不再是欧盟的成员,这意味着不能参与欧盟人工智能法案的立法。
除此之外,苏纳克政府的态度是,不打算制定任何新的国内立法来监管人工智能。其中近期英国政府的一份白皮书提出,仅仅依靠现有的监管机构,如竞争管理机构和隐私监督机构,为人工智能的安全发展提供指导,而不是立法规范技术的使用。
英国很有可能受益于本身的地缘优势和占据人工智能安全这块重要领域,发挥自己的影响力。比如说,人工智能巨头支持由英国主导围绕人工智能安全研究对话,就可以很好地塑造适用自家业务的英国人工智能规则,而英国也会在这样的情况下受益。
但是,如果英国的人工智能安全峰会想要产生真正且可信的成功,就一定要团结全球的研究人员,并且积极邀请独立研究员、民间社会团体和技术组织的参与,而不仅仅是局限于“杰出的人工智能公司”与自己本土学者之间合作的计划。而面向全球的人工智能安全峰会,一定是摒弃偏见、差异,而为整个人类在AGI世界的安全,共谋福祉。参考文献:Sam Altman’s big European tourhttps://techcrunch.com/2023/05/25/sam-altman-european-tour/
OpenAI, DeepMind and Anthropic to give UK early access to foundational models for AI safety research