ChatGPT,迎来全球第一张封禁令
这半个月,ChatGPT引发的浪潮冲击世界,风头无两,已经不需赘言。
英伟达CEO黄仁勋赞叹说,ChatGPT的出现,是AI界的“iPhone时刻”,势必改变我们的现实生活。这一次变革中,获益最多的无疑是开发公司OpenAI,以及联手OpenAI的微软。
OpenAI 总裁Gregman演示ChatGPT
但是,当地时间3月31日,意大利个人数据保护局宣布,将暂时封锁意大利境内访问ChatGPT的途径,同时,审查OpenAI在最近一次网络安全事件中收集的个人信息等问题。
在这全球第一张对ChatGPT的禁令中,意大利数据保护局列出了3项指控。
一是,3月20日ChatGPT平台出现了用户对话数据和付款服务支付信息丢失。
二是,平台没有就收集处理用户信息进行告知。
三是,由于无法验证用户的年龄,ChatGPT“让未成年人接触到与发育程度和意识相比,绝对不合适的答案”。
突如其来的监管动作,让意大利成为全球第一个因隐私考虑,禁用了ChatGPT的国家。
OpenAI CEO 奥特曼对意大利“禁令”的回应“我们当然遵从意大利政府,并已停止在意大利使用ChatGPT。尽管我们认为遵守了所有的隐私法。”
根据瑞银上月发布的一份研究报告,今年1月,也就是ChatGPT发布两个月后,其月活跃用户就已经达到了1亿,成为史上增长最快的应用程序。微软的新必应搜索引擎也由OpenAI技术提供支持,自1月份发布以来的两周内,169个国家的100多万人使用了该搜索引擎。
值得一提的是,欧盟执法机构欧洲刑警组织本周警告称,ChatGPT可能被滥用于网络钓鱼、虚假信息和网络犯罪,这引发了从法律到道德问题等一系列担忧。
本周三(3月29日),埃隆·马斯克(Elon Musk)和现代人工智能方法的创始人之一约舒亚·本吉奥(Yoshua Bengio)等人以社会面临重大风险为由,呼吁暂停开发比新推出的GPT-4更强大的系统六个月,以便公众有时间权衡风险。
公开信原文:
正如广泛的研究和顶级人工智能实验室所承认的,人工智能系统对社会和人类构成较大的风险。《阿西洛马人工智能原则》中指出,高级人工智能可能代表着地球上生命历史的深刻变革,应该以相应的谨慎和资源进行规划和管理。然而,尽管最近几个月人工智能实验室掀起AI狂潮,开发和部署越来越强大的数字大脑,但目前没有人能理解、预测或可靠地控制AI系统,也没有相应水平的规划和管理。
现在,人工智能在一般任务上变得与人类一样有竞争力,我们必须问自己:我们应该让机器在信息渠道中宣传不真实的信息吗?我们是否应该把所有的工作都自动化,包括那些有成就感的工作?我们是否应该开发非人类的大脑,使其最终超过人类数量,胜过人类的智慧,淘汰并取代人类?我们是否应该冒着失去对我们文明控制的风险?这样的决定绝不能委托给未经选举的技术领袖。只有当我们确信强大的人工智能系统的效果是积极的,其风险是可控的,才应该开发。同时,这种信心必须得到验证,并随着系统的潜在影响的大小而加强。OpenAI最近关于人工智能的声明中指出,在开始训练未来的系统之前,可能必须得到独立的审查,对于最先进的努力,同意限制用于创建新模型的计算增长速度。我们同意,现在就该采取行动。
因此,我们呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,时间至少持续6个月。这种暂停应该是公开的、可核查的,并包括所有关键参与者。如果这种禁令不能迅速实施,政府应该介入并制定暂停令。
人工智能实验室和独立专家应在暂停期间,共同制定和实施一套先进的人工智能设计和开发的共享安全协议,由独立的外部专家进行严格的审查和监督。这些协议应该确保遵守协议的系统是安全的。值得一提的是,这并不意味着暂停一般的人工智能开发,只是从危险的竞赛中退后一步,限制不可预测的研究和开发。
公开信原文:
正如广泛的研究和顶级人工智能实验室所承认的,人工智能系统对社会和人类构成较大的风险。《阿西洛马人工智能原则》中指出,高级人工智能可能代表着地球上生命历史的深刻变革,应该以相应的谨慎和资源进行规划和管理。然而,尽管最近几个月人工智能实验室掀起AI狂潮,开发和部署越来越强大的数字大脑,但目前没有人能理解、预测或可靠地控制AI系统,也没有相应水平的规划和管理。
现在,人工智能在一般任务上变得与人类一样有竞争力,我们必须问自己:我们应该让机器在信息渠道中宣传不真实的信息吗?我们是否应该把所有的工作都自动化,包括那些有成就感的工作?我们是否应该开发非人类的大脑,使其最终超过人类数量,胜过人类的智慧,淘汰并取代人类?我们是否应该冒着失去对我们文明控制的风险?这样的决定绝不能委托给未经选举的技术领袖。只有当我们确信强大的人工智能系统的效果是积极的,其风险是可控的,才应该开发。同时,这种信心必须得到验证,并随着系统的潜在影响的大小而加强。OpenAI最近关于人工智能的声明中指出,在开始训练未来的系统之前,可能必须得到独立的审查,对于最先进的努力,同意限制用于创建新模型的计算增长速度。我们同意,现在就该采取行动。
因此,我们呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,时间至少持续6个月。这种暂停应该是公开的、可核查的,并包括所有关键参与者。如果这种禁令不能迅速实施,政府应该介入并制定暂停令。
人工智能实验室和独立专家应在暂停期间,共同制定和实施一套先进的人工智能设计和开发的共享安全协议,由独立的外部专家进行严格的审查和监督。这些协议应该确保遵守协议的系统是安全的。值得一提的是,这并不意味着暂停一般的人工智能开发,只是从危险的竞赛中退后一步,限制不可预测的研究和开发。
我们是否应该让机器用宣传和谎言淹没我们的信息渠道?
我们是否应该让所有的工作自动化,包括那些令人满意的工作?
我们是否应该发展最终可能在数量上超过我们、在智能上超越我们、能够淘汰并取代我们的非人类思维?
我们应该冒着失去对我们文明控制的风险吗?
“我们必须扪心自问,”联名信上写道,“是否应该让机器用宣传和谎言充斥我们的信息渠道?是否应该让所有的工作都变得自动化?是否应该发展可能某一天会超越我们、淘汰我们、取代我们的人工智能?是否应该冒险失去对人类文明的控制?”
信的末尾提及,人类可以和AI共创繁荣未来,只不过要做好准备:“让我们享受AI的‘长夏’,而不是毫无准备地进入‘秋天’。”
OpenAI的管理人员说他们还没有开始训练GPT-5。OpenAI首席执行官Sam Altman在接受采访时表示,公司长期以来在开发时将安全作为重点,并在GPT-4发布前花了六个多月的时间对其进行安全测试。
“从某种意义上说,这是多此一举,”Altman说。“我认为,一直以来我们对这些问题的讨论是声音最响、力度最大且持续时间最长的。”
来源:综合自中国经济网,中国日报网等
--------
往期推荐
枪杀继母!尤伦斯男爵的儿子连开5枪枪杀尤伦斯当代艺术中心米莉恩
浙江女子下跪时的哀求声,震撼灵魂!一个人为面包犯罪,这个社会有罪
南航学生举报老师之后,该校校友宣布终止“繁星奖学金”:此后六十年世间再无蔡元培
-END-
投稿请邮件至artsbj@artsbj.cn
合作或其他事宜请加QQ878766659
北京文艺网
影响世界 文艺的力量
免责声明:本网发表的所有内容,均为原作者的观点;本网转载的文章、图片、音频、视频等文件资料,版权归版权所有者所有。