千名大佬联名“封杀”AI新动向:一国家宣布禁用ChatGPT
近日,包括特斯拉创始人马斯克在内的众多科技界知名人士签署了一封公开信,要求暂停GPT-5的研发,担心它“对社会和人类构成潜在风险”。值得注意的是,这引起全球科技圈巨震的联名“封杀”AI一事,有了新的走向。同时,面对聊天机器人ChatGPT爆火,终于有国家监管机构出手了。
01
多个签名系被伪造
当地时间3月29日,Meta首席人工智能科学家、图灵奖得主杨立昆(Yann LeCun)在社交平台表示:“我没有在联名信上签过名,我不同意这封信的前提。”
除了杨立昆,机器学习奠基人Thomas G. Dietterich也表示:“我没有签名。这封信充斥着骇人听闻的言辞和无效或根本不存在的政策主张。现在确实存在重要的技术和政策问题,但我们中的许多人正在解决这些问题。”
联名信引用的一篇论文的合著者、华盛顿大学语言学系教授Emily M. Bender更是逐个段落对比了原文与联名信,她认为联名信对其论文的引用脱离了本意。原文本意是指,不考虑风险就急于追求更大的语言模型是一件坏事。但人工智能的风险从来都不是因为人工智能“太强大”,而是“关于权力集中在人们手中,关于压迫的再生产系统,关于对信息生态系统的破坏”。
不过,千位科技大佬的签名也并非全是伪造。“这封信并不完美,但精神是正确的:我们需要放慢脚步,直到我们更好地理解其后果。”纽约大学教授Gary Marcus在签署这封信后表示。
值得注意的是,联名信签名名单目前已经经过一轮更新。原本OpenAI CEO、ChatGPT之父Sam Altman参与了签名,但最新名单已经删除了他的签名信息。
3月30日,舆论中心的Sam Altman保持淡定,他在社交平台上发文称:“身处暴风眼,(我)很镇静。”
02
AI监管刻不容缓
Sam Altman在当天稍早时候表示,好的AGI(通用人工智能)未来需要三种东西:调整超级智能的技术能力;大多数领先的AGI工作间的充分协调;一个有效的全球监管框架,包括民主治理。
目前已有国家开始推进有关人工智能监管的法规建设。3月29日,英国政府发布针对人工智能产业监管的白皮书,概述了针对ChatGPT等人工智能治理的五项原则,分别是:安全性和稳健性、透明度和可解释性、公平性、问责制和管理,以及可竞争性。
在接下来的12个月里,英国监管机构将向相关组织发布实用指南,以及风险评估模板等其他工具,制定基于五项原则的一些具体规则。也将在议会推动立法,制定具体的人工智能法案。企业应该解释何时以及如何使用人工智能,并透露系统的决策过程,以“暴露”使用人工智能所带来的风险。
03
意大利禁用ChatGPT
当地时间3月31日,意大利个人数据保护局宣布,从即日起禁止使用聊天机器人ChatGPT,限制其开发公司OpenAI处理意大利用户信息,并开始立案调查。
个人数据保护局认为,3月20日ChatGPT平台出现了用户对话数据和付款服务支付信息丢失情况。而该平台没有就收集处理用户信息进行告知,且缺乏大量收集和存储个人信息的法律依据。
同时,该机构还指责,尽管根据OpenAI的条款声称该服务面对13岁以上的用户,但并没有使用任何过滤机制来验证用户的年龄。
因此该机构要求OpenAI公司必须在20天内通过其在欧洲的代表,向意大利个人数据保护局通报公司执行保护局要求而采取的措施,否则将被处以最高2000万欧元或公司全球年营业额4%的罚款。
此前3月23日,OpenAI的首席执行官Sam Altman公开承认开源库中出现错误,导致部分用户与ChatGPT的聊天记录被泄露。当天他发布致歉推文,表示已经修复了错误并完成验证,他表示“我们对此感到很难过”。
事实上,这不是意大利数据监管机构第一次对AI聊天机器人采取类似行动。科技媒体The Verge报道称,此前2月该机构曾禁止聊天机器人软件Replika.ai使用意大利用户的个人数据。
生成式人工智能具有巨大潜能,但同时也引起外界担忧。本周,欧盟执法机构欧洲刑警组织(Europol)发出警告,提醒ChatGPT可能被滥用于网络钓鱼、虚假信息和网络犯罪等活动。不过该组织也认为,该聊天机器人有助于处理恐怖主义等领域的潜在案件,可用于收集更多可能促进恐怖活动的信息,例如恐怖主义融资或匿名文件共享。
等你来pick→
来源 读创/深圳商报综合自中国基金报、澎湃新闻等
编辑 石展溥
责编 李琰
监制 陈志文
校审 孙世建