查看原文
其他

Open AI 发布 GPT-2 引争议,可能具有社会和科学的潜在威胁

source:paixin.com


 上周,  OpenAI发布了GPT-2,这是一种会话式人工智能系统,但很快引起争议。没有特定领域的数据,GPT-2在阅读理解和回答问题等八个自然语言理解基准中的七个达到了最先进的性能。


包括Keras深度学习图书馆创始人FrançoisChollet称OpenAI GPT-2发布(或缺乏)是一种不负责任的恐惧贩子公关策略和宣传噱头。其他人则认为,对于一家名为OpenAI的非营利组织来说,开始关闭其工作的机会非常具有讽刺意味。


语言模型的最新进展值得注意,但GPT-2引发的对话并没有什么新鲜事。它突破了两个可能跨越世界顶级AI和ML人才思想的开创性问题:可以用于邪恶的AI研究是否应该被锁定或保密,不与更广泛的科学界分享?创作者对他们的创作有多少责任?


生命未来研究所联合创始人马克斯·泰格马克总结了这场冲突,因为人工智能在去年接受VentureBeat采访时表现良好,他提到考虑人工智能模型的风险不是恐惧贩卖,而是安全工程。


人们经常问我是不是支持或反对人工智能,我问他们是否认为火是一种威胁,如果他们是火还是火。然后他们看到它有多愚蠢; 当然你是为了火 - 支持火来保持你的家温暖 - 并且反对纵火,对吧?火与人工智能之间的区别在于 - 它们都是技术 - 只是人工智能,特别是超级智能,是更强大的技术。技术不错,技术不好; 技术是我们做事的能力的放大器。而且它越强大,我们就能做得越好,我们就越能做坏事。


我乐观地认为,只要我们赢得技术不断增长的力量和我们管理它的不断增长的智慧之间的竞争,我们就能创造这个真正鼓舞人心的高科技未来。


正是这些问题以及从将开源视为无可置疑的好处的变化,最近导致微软,谷歌和IBM的研究人员创建了负责任的AI许可证(RAIL),试图通过法律手段限制AI模型的使用。


“我们认识到我们的工作有时会给世界带来的风险; 这让我们想到了这样做的潜在方式,“联合创始人丹麦承包商在一次独家采访中告诉VentureBeat


在过去一年左右的时间里,需要考虑你的工作的影响,这是人工智能中关于偏见和道德的对话不可或缺的一部分,本周早些时候OpenAI宣布AI模型需要社会科学和计算机科学


这个星期在ML和AI,针对这些冲突研究人员开展了实时对话,其中包括OpenAI科研人员和行业专家。


OpenAI研究科学家Amanda Askell和Miles Brundage表示,非营利组织持谨慎态度,因为他们并不十分确信该模型可用于更积极的用户案例。他们还表示,OpenAI已经为经过审查的研究人员或行业合作伙伴考虑了某种合作伙伴计划,以获取该模型。


Nvidia ML研究主任Anima Anandkumar称OpenAI的方法适得其反,并且其方法会伤害边缘化社区中的学生和学术研究人员,他们对资源的访问权限最少,但却无法阻止恶意玩家的复制。


“我担心社区是否会因为我们突然觉得存在威胁而从开放和封闭环境中走开,即使有这样的威胁,它也无济于事,因为已经有很多可用的东西,所以它是如此很容易看看这些想法,包括来自AI的博客文章和论文,以重现这一点,“她说。


最近有人提到商务部限制人工智能出口到其他国家。也许像微软这样的流行科技公司的API可能会受到限制,但像ArXiv这样的论文或像GitHub这样的共享代码的开放门户网站仍然会支持重要元素的传播。


用于扭曲图像和视频的Deepfake技术以及大规模AI模型的发展并没有消失。


最终,无论你如何看待OpenAI如何处理GPT-2的发布,创作者对其创作负有一定责任的想法是一个令人鼓舞的趋势。


很难说限制是否能够通过复制模型来确定具有资源和技术诀窍的恶意行为者,但随着更强大的系统的诞生,如果限制访问成为一种趋势,那么它可能会对创建AI系统的科学产生不利影响。

 

一篇论文和一些代码发布时,受过40GB网络文本培训的无监督模型上市,但由于其创作者关于“技术的恶意应用”的暗示,该模型的整体未发布,暗指事物比如自动生成假新闻。因此,更广泛的社区无法完全验证或复制结果。


来源:VentureBeat


(星标提示:微信改版啦,三步离AI更近:1.点击“AI人工智能产业研究”  2.点击右上角三点图标  3.选择“设为星标”。)


推荐阅读

2019年智能音箱进入下半场,价格不再是消费者首要考虑因素

这些国家都在“押注”人工智能

研究发现对抗攻击方法,可适用多个人工智能模型

给我好看▼

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存