OpenAI公布保障AI安全的六大方法,回应数据安全质疑!
在发布任何新系统之前,OpenAI表示会进行严格的测试,聘请外部专家进行反馈,通过人工反馈的强化学习等技术来改善模型的行为,并建立广泛的安全和监控系统。例如,在最新模型GPT-4完成培训后,花了6个多月的时间在整个组织中工作,以使其在公开发布之前更安全、更一致。OpenAI认为,强大的人工智能系统应该接受严格的安全评估,需要进行监管以确保此类做法得到采纳,积极与政府就此类监管的最佳形式进行接触。
OpenAI表示在部署之前,他们努力防止可预见的风险,但在实验室中所能学到的是有限的。尽管进行了广泛的研究和测试,但无法预测人们使用其技术的所有有益方式,也无法预测人们滥用其技术的所有方式。
他们会谨慎地、逐步地向不断扩大的人群发布新的人工智能系统,并在吸取教训的基础上不断改进。通过他们的服务和API提供最强大的模型,以便开发人员可以将这项技术直接构建到他们的应用程序中。这使他们能够监测滥用情况并对其采取行动,并不断建立缓解措施,以应对人们滥用其系统的真实方式,而不仅仅是关于滥用可能是什么样子的理论。
OpenAI认为社会必须有时间更新和调整,以适应日益强大的人工智能,每个受这项技术影响的人都应该对人工智能的进一步发展有重要发言权。
其大型语言模型是在广泛的文本语料库上进行训练的,其中包括公开可用的内容、授权内容和由人类评审员生成的内容。OpenAI表示不使用数据来销售其服务、广告或建立人们的档案,他们使用数据来使其模型对人们更有帮助。例如,ChatGPT通过对人们与它的对话进行进一步的培训来改进。
虽然OpenAI的一些培训数据包括公共互联网上的个人信息,但他们希望其模型了解世界,而不是个人。因此,OpenAI表示努力在可行的情况下从训练数据集中删除个人信息,微调模型以拒绝对私人个人信息的请求,并响应个人从其系统中删除其个人信息的要求。这些步骤最大限度地减少了模型可能生成包含私人个人信息的响应的可能性。
今天的大型语言模型基于他们之前看到的模式来预测下一系列单词,包括用户提供的文本输入。在某些情况下,下一个最有可能的词在事实上可能并不准确。提高事实准确性是OpenAI和许多其他人工智能开发人员的一个重要关注点,他们正在取得进展。通过利用用户对被标记为不正确的ChatGPT输出的反馈作为主要数据来源,提高了GPT-4的事实准确性。GPT-4产生真实内容的可能性比GPT-3.5高40%。
当用户注册使用该工具时,OpenAI表示努力做到尽可能透明,因为ChatGPT可能并不总是准确的。要进一步降低幻觉的可能性,并教育公众了解这些人工智能工具的当前局限性,还有很多工作要做。
OpenAI认为,解决人工智能安全问题的一种实用方法是投入更多的时间和资源来研究有效的缓解措施和调整技术,并针对现实世界中的滥用进行测试。还认为,提高人工智能的安全性和能力应该齐头并进。其最好的安全工作来自于与最有能力的车型合作,因为它们更善于遵循用户的指示,更容易驾驶或“引导”。将越来越谨慎地创建和部署更有能力的模型,并将随着人工智能系统的发展继续加强安全预防措施。
OpenAI认为等了6个多月才部署GPT-4,是以便更好地了解其功能、好处和风险,但有时可能需要更长的时间来提高人工智能系统的安全性。因此,在政策制定者和人工智能提供商需要确保人工智能的开发和部署在全球范围内得到有效管理,需要技术和制度创新并为此做出贡献。
解决安全问题还需要广泛的辩论、实验和参与,包括人工智能系统行为的界限。OpenAI已经并将继续促进利益相关者之间的合作和公开对话,以创建一个安全的人工智能生态系统。
了解更多可点击“阅读全文”查看原文内容
本文翻译由数据安全与隐私计算提供,仅供参考;版权归属原作者,分享仅供学习参考,如有不当,请联系我们处理。
END