谷歌警示自家员工:别使用Bard 生成的代码
作者: Jeffrey Dastin 和 Anna Tong
编译:代码卫士
Alphabet 建议员工称,按照信息保护的长期策略要求,不要将机密材料输入 AI 聊天机器人。这些聊天机器人,包括 Bard、ChatGPT 等,是使用所谓的生成式人工智能与用户进行会话并回复多种提示的人声程序。审计人员可阅读聊天内容,而研究员发现类似 AI 可复现在训练中所吸收的数据,从而造成泄露风险。
其中一些消息人士表示,Alphabet 公司还向工程师发出警报称,避免直接使用聊天机器人能够生成的计算机代码。Alphabet 公司表示,虽然Bard 可生成不需要的代码建议,但确实能够为程序员提供帮助。谷歌还表示将对其技术的局限性保持透明。
谷歌的这种担忧显示,谷歌希望避免遭受来自 ChatGPT 竞品的自家软件的业务损害。谷歌 Bard 与 ChatGPT 竞争的背后是数十亿美元的投资以及仍未透露的新型AI程序带来的广告和云收入。
谷歌的担忧也反映出,警示员工关于使用公开可用聊天程序正在成为企业的一项安全标准。三星、亚马逊、德意志银行向路透社表示已设置关于员工使用AI聊天机器人的要求,从报道中可知苹果公司也设立了类似要求。Fishbowl 对近1.2万名人员(不乏来自顶级美国企业的人员)的调查显示,截止到2023年1月,约43%的专业人员正在使用 ChatGPT 或其它 AI 工具,且通常不会告知企业老板。
媒体 Insider 报道称,2月份,谷歌告知在发布前测试 Bard 的员工不要投喂内部信息。如今,谷歌正在向全球180多个国家以40种语言推广 Bard,称其是创意跳板,而谷歌的警示延伸至代码建议。谷歌向路透社表示,已经与爱尔兰数据保护委员会进行了细致交流,并正在解决监管机构的质询。本周二,Politico 媒体报道称谷歌将推迟Bard的欧盟发布会,等待有关聊天机器人对隐私影响的更多信息。
此类技术能够起草邮件、文档甚至是文件本身,极大地提升了任务处理速度。然而,包含其中的内容可能是虚假信息、敏感数据、甚至是来自小说《哈利波特》中的版权内容。
谷歌在6月1日的隐私公告更新中提到,“不要在 Bard 会话中输入机密信息或敏感信息。”
某些企业也开发软件解决这些问题。例如,Cloudflare 正在推广供企业标记和限制外部流入的某些数据的能力。谷歌和微软也向企业客户提供会话工具,虽然价格更高但可阻止数据流入公开的 AI 模型中。Bard 和 ChatGPT 的默认设置是为了保存用户的会话历史,用户可选择删除该设置。
微软的客户首席营销官 Yusuf Mehdi 表示,企业不愿意员工在工作中使用公开的聊天机器人是“合理的”。Mehdi 在解释微软的 Bing 聊天机器人和其企业软件的不同时表示,“企业采取了尽职保守立场,因此我们的策略更加严格。”
微软拒绝就是否禁止员工在公开的 AI 程序(包括 ChatGPT在内)中输入机密信息置评,不过微软的另一名管理人员表示他个人会限制使用。Cloudflare 公司的首席执行官 Matthew Prince 表示,在聊天机器人中输入敏感信息就像“让一群博士学生闯入你所有的私密记录中。”
题图:Pixabay License
本文由奇安信编译,不代表奇安信观点。转载请注明“转自奇安信代码卫士 https://codesafe.qianxin.com”。
奇安信代码卫士 (codesafe)
国内首个专注于软件开发安全的产品线。