据《纽约时报》7月4日报道,OpenAI在2023年4月遭遇了一次黑客入侵,黑客窃取了有关其人工智能技术运作的详细信息。这些信息是从员工讨论最新模型的论坛中被窃取的,而非OpenAI核心系统的数据。尽管如此,OpenAI并未公开这一事件,因为客户数据未受影响且黑客与外国政府无关。OpenAI在2023年4月的全体会议上向员工和董事会通报了此事,但没有通知执法机构。部分员工担心外国对手可能会利用这些信息威胁美国国家安全。OpenAI前超级对齐团队负责人Leopold Aschenbrenner对此也表达了类似的担忧,并因分享内部文件而被解雇。尽管如此,研究表明人工智能并未比搜索引擎更危险,但立法者仍在推动对使用人工智能造成社会危害的公司进行监管和处罚。此前,OpenAI此前删除了禁止其技术用于军事用途的声明、窃取知名演员声音数据、高管纷争离职、吸纳NSA卸任局长/网军司令等,非议不断。
OpenAI,作为全球领先的人工智能研究公司和ChatGPT聊天机器人的母公司,在2023年4月遭遇了一起安全漏洞事件,该事件导致公司内部机密被泄露,引发了对美国国家安全和人工智能技术潜在滥用的担忧。
据报道,黑客在2023年初未授权访问了OpenAI员工使用的内部消息系统,该系统包含了关于公司敏感人工智能研发项目的讨论。尽管客户或合作伙伴的数据并未被盗,且黑客无法接触到公司用于存放和构建人工智能的系统,但此次事件仍然引起了对敏感技术信息安全的严重关切。
OpenAI的高管在2023年4月的全体员工大会上披露了这一安全事件,但选择不对外公开,引发了一些员工的批评。技术项目经理Leopold Aschenbrenner对公司的安全措施提出质疑,并在发送给董事会的备忘录中指出,公司在防止包括外国政府在内的外国对手窃取机密方面的努力不足。OpenAI后来以信息泄露为由解雇了Aschenbrenner,尽管他本人认为这是出于政治动机,而公司则声称解雇与他的声明无关,也并不同意他对公司数字安全基础设施的评估。
公司发言人Liz Bourgeois强调,尽管他们认同Leopold对创建安全人工智能的承诺,但他们不同意他对公司安全性的看法,包括在他加入公司前就已与董事会讨论过的事件。
OpenAI表示,他们不认为此次事件构成国家安全威胁,因此没有通知联邦执法机构,因为他们认为黑客是个人行为,并没有迹象显示有外国政府的参与。
此次事件引发了对美国国家安全面临潜在外部威胁的担忧,特别是有关外国可能窃取人工智能技术的疑虑。同时,这也质疑了OpenAI的安全措施,并暴露了公司内部对人工智能风险的讨论。这一事件为人工智能行业敲响了警钟,呼吁企业、政府和公众共同努力,为人工智能的发展制定有效的安全措施和道德准则。为确保安全,企业必须提升网络安全水平,采取强有力的措施,并培养安全意识文化。
OpenAI的麻烦还仅限于此。
OpenAI近期任命退役的美国陆军将军、前国家安全局(NSA)局长Paul M. Nakasone为董事会成员,加入新成立的安全与保障委员会。该委员会旨在就关键安全事项提供建议,但此任命引发了对OpenAI军事化倾向的担忧 (SiliconANGLE) 。中曾根拥有38年军旅生涯,包括担任美国陆军网络司令部司令五年多,他的加入被视为军工联合体在国防与私营企业之间的“旋转门”现象的延续。这一现象通常导致利益冲突和巨额军事合同。据《战争成本》报告,美国在2019年至2022年间授予大型科技公司的军事和情报合同总价值至少530亿美元。OpenAI此前删除了禁止其技术用于军事用途的声明,目前正在与五角大楼合作开发网络安全工具。尽管公司声称其技术不会用于武器开发,但中曾根的任命和NSA的监视历史让人质疑这些政策的可靠性。批评者如NSA告密者爱德华·斯诺登认为,这一任命是对全球人权的背叛。此外,OpenAI最近涉及多起丑闻,包括窃取演员斯嘉丽·约翰逊的声音数据和高管离职事件,使得公众对其未来的安全性和透明度产生质疑参考资源
1、https://www.reuters.com/technology/cybersecurity/openais-internal-ai-details-stolen-2023-breach-nyt-reports-2024-07-05/
2、https://hackread.com/openai-kept-mum-of-sensitive-ai-research-hack/
3、https://www.newser.com/story/352583/openai-kept-mum-after-hacker-stole-its-secrets.html
4、https://responsiblestatecraft.org/former-nsa-chief-revolves-through-openai-s-door/