人工智能安全性引发全球广泛担忧,ChatGpt成为科技界争议焦点
温馨提示
亲爱的朋友们,关注我并设为星标才能第一时间收到更新推送文章,设置方法:
正文
随着ChatGPT4的发布,人工智能蓬勃发展,全球各国都争先布局,纷纷抢占市场先机,人们对新技术的狂热追逐一时席卷全球,正在人们对这场AI科技革命寄予强烈的厚望和期待时,AI可能引发的各种安全风险的担忧也甚嚣尘上。
AI聊天机器人究竟有哪些风险?【ChatGPT大揭秘】探究背后黑科技,解密掀起科技革命的原因 一文已经有所介绍,这里不再赘述。
简单来说,一方面,用户担心自己的数据被AI公司获取并喂养模型,行业公司忧虑自家数据被AI“白嫖”,而这些担忧并非危言耸听。据多家韩媒3月31日报道,三星电子内部发生3起ChatGPT滥用与误用事件。另一方面,AI聊天机器人甚至可能“闹出了人命”。据比利时《自由报》消息,近日一名化名为皮埃尔的比利时男子被发现自杀身亡。其妻子表示,在与一个名为“艾丽莎(ELIZA)”的聊天机器人频繁聊天后,皮埃尔才自杀身亡。
三星引入ChatGPT不到20天 爆3件半导体机密数据外泄
据DigiTimes报道,三星电子引入聊天型机器人ChatGPT不到20天,近日便爆出机密数据外泄意外,如半导体设备测量数据、产品良率等内容,都已经被存入ChatGPT学习数据库中。
综合韩媒消息,三星内部发生3起在ChatGPT误用与滥用案例,如三星内部人员在ChatGPT上提问、验证答案,却让这些答案成为ChatGPT的学习数据库,若有其他使用者在ChatGPT上提出相关疑问,恐让三星企业机密外流,而此次ChatGPT误用与滥用案例中,有2件与半导体设备相关,另外1件则属会议内容。
为杜绝类似事故再发生,三星正在制定相关保护措施,若之后又发生类似事故,三星内部也可能会切断ChatGPT服务。同时,DigiTimes还指出, 据传,三星正考虑透过DS部门中的创新中心研发三星专属AI服务。对此,三星透过公告叮嘱职员注意ChatGPT的使用方式,并提醒使用者在ChatGPT输入内容后,相关数据都将传送到外部服务器,三星无法回收外流数据,因此如果让ChatGPT学习三星内部数据,可能会让敏感内容外流。
非营利组织称人工智能对个人隐私和公共安全构成威胁。
非营利组织人工智能与数字政策中心(CAIDP)向美国联邦贸易委员会(FTC)投诉称,GPT-4“有偏见性,欺骗性,对隐私和公共安全构成风险”。CAIDP认为,OpenAI违反了FTC对人工智能(AI)产品的指导,并违反了FTC法案第5条,该法案禁止不公平和欺骗性的商业行为。CAIDP敦促FTC对OpenAI进行调查,并暂停其大型语言模型的商业部署,包括ChatGPT的最新版本。
欧洲刑警组织发表报告数说ChatGpt对执法的影响。
当地时间3月27日,欧洲刑警组织发表题为《ChatGPT-大型语言模型对执法的影响》的报告称,人工智能聊天机器人ChatGPT可能被滥用于网络钓鱼、宣传虚假信息以及网络犯罪,这加剧了外界对这一新兴事物在法律、道德等方面的担忧。
意大利禁止使用ChatGPT,ChatGPT业已在意大利正式下线。
3月31日,意大利数据保护局(Garante)表示,OpenAI聊天机器人ChatGPT涉嫌违法收集个人数据,且没有建立年龄验证机制,即日起暂时禁止使用OpenAI聊天机器人ChatGPT,成为首个禁用ChatGPT的国家。
意大利数据保护机构对OpenAI公司非法收集用户信息展开调查。意大利个人数据保护局今天宣布,即日起禁止使用聊天机器人ChatGPT,并限制开发这一平台的美国人工智能公司OpenAI处理意大利用户信息。
同时,意大利个人数据保护局指出,本月20日,ChatGPT平台出现了“用户对话数据和付款服务支付信息丢失”的情况。此外,该平台没有就收集处理用户信息进行告知,缺乏大量收集和存储个人信息的法律依据。OpenAI公司“必须在20天内通过其在欧洲的代表向意大利个人数据保护局通报公司执行保护局要求而采取的措施”,否则将被处以最高2千万欧元或公司全球年营业额4%的罚款。鉴于此,4月1日OpenAI已在意大利下线ChatGPT。
暂停巨型AI实验的一封公开信,马斯克等数千 AI 专家紧急呼吁 立即停止训练 GPT-5 及以上模型,应制定相关安全标准,防止AI技术带来潜在危害
近日,一封暂停巨型AI实验的一封公开信,更是引起了人们对于人工智能的安全性问题的广泛担忧,一时各方针对暂停巨型AI实验这一问题的争议引发热议。
据路透社报道,包括图灵奖得主 Yoshua Bengio、伯克利计算机科学教授 Stuart Russell、特斯拉 CEO 埃隆·马斯克、苹果联合创始人 Steve Wozniak 等在内的数千名对人工智能领域关注的学者、企业家、教授最新发起了一封公开信,强烈呼吁:暂停训练比 GPT-4 更强大的系统,期限为六个月,理由是这些模型对社会和人类存在潜在风险。
这封信由非营利性的 "生命的未来研究所 "(Future of Life Institute)发出,截至目前,已经有 2489 人签名,这个签名是动态变化的。
公开信原文链接(需要梯子方能打开):
https://futureoflife.org/open-letter/pause-giant-ai-experiments/
兹摘录原文全部内容如下:
“大量研究[1]表明并得到顶级 AI 实验室的认可,具有人类竞争智能的 AI 系统可能对社会和人类构成深远的风险。[2]正如广泛认可的Asilomar AI 原则中所述,高级 AI 可能代表地球生命史上的深刻变化,应以相应的关怀和资源进行规划和管理。不幸的是,这种级别的规划和管理并没有发生,尽管最近几个月人工智能实验室陷入了一场失控的竞赛,以开发和部署更强大的数字思维,没有人——甚至他们的创造者——都无法理解,预测,或可靠地控制。
当代人工智能系统现在在一般任务上变得与人类具有竞争力,[3]我们必须扪心自问:我们是否应该让机器用宣传和谎言充斥我们的信息渠道? 我们应该自动化所有的工作,包括令人满意的工作吗?我们是否应该发展最终可能超过我们、超越我们、并取代我们的非人类思维?我们应该冒险失去对我们文明的控制吗?不得将此类决定委托给未经选举产生的技术领导者。 只有当我们确信它们的影响是积极的并且它们的风险是可控的时候,才应该开发强大的人工智能系统。这种信心必须有充分的理由,并随着系统潜在影响的大小而增加。OpenAI最近关于通用人工智能的声明指出,“在某些时候,在开始训练未来系统之前进行独立审查可能很重要,并且对于最先进的努力来说,同意限制用于创建新系统的计算增长率楷模。” 我们同意。
因此,我们呼吁所有 AI 实验室立即暂停至少 6 个月的训练比 GPT-4 更强大的 AI 系统。这种暂停应该是公开的和可验证的,并且包括所有关键参与者。如果不能迅速实施这种暂停,政府应介入并暂停。
人工智能实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督。这些协议应确保遵守它们的系统是安全的,无可置疑。[4]这并不意味着总体上暂停 AI 开发,只是从危险的竞赛中倒退到具有紧急功能的更大的不可预测的黑盒模型。
人工智能研究和开发应该重新聚焦于使当今强大的、最先进的系统更加准确、安全、可解释、透明、稳健、一致、值得信赖和忠诚。
与此同时,AI 开发人员必须与政策制定者合作,以加快开发强大的 AI 治理系统。这些至少应包括:专门负责 AI 的新的和有能力的监管机构;监督和跟踪高性能人工智能系统和大量计算能力;出处和水印系统,以帮助区分真实与合成并跟踪模型泄漏;强大的审计和认证生态系统;人工智能造成的伤害责任;为技术人工智能安全研究提供强大的公共资金;以及资源充足的机构来应对人工智能将造成的巨大的经济和政治破坏(尤其是对民主的破坏)。
人类可以享受人工智能带来的繁荣未来。成功创建强大的 AI 系统后,我们现在可以享受“AI 之夏”,收获回报,设计这些系统以造福所有人,并为社会提供适应的机会。社会已经暂停其他可能对社会造成灾难性影响的技术。[5] 我们可以在这里这样做。让我们享受一个漫长的 AI 夏天,而不是毫无准备地陷入秋天。”
360公司创始人、董事长兼CEO周鸿祎则表示反对意见,我自己是做安全的,但我坚定地认为,不发展才是最大的不安全。
人工智能发展到今天,特别像ChatGpt这种革命性的产品,是时代发展的必然产物,是人类历史上具有里程碑意义的伟大发明,任何事物都具有两面性,何况是新生事物,我们不能因为它有着不利的一面就否定它。未来已来,只有不畏艰险,攻坚克难,兵来将挡,水来土掩,方是推动科技发展的必由之路,你觉得呢?
END
3、
4、推荐一款功能强大的激活工具,可一键智能激活Windows操作系统和office办公软件
·动动你的小手,猛戳底部赞和在看·
—喜欢就收藏,分享给你的朋友更好—
你的认可是我们前进的最大动力!
【免责声明】
1、本平台文章均为原创,分享内容仅供个人研究使用,请勿用于商业用途,转载请注明出处,违者必究。
2、文中所涉相关软件、图片、音频、视频等资源均来自互联网,仅供学习参考之用,版权归原著所有,如有侵权,请联系删除。