微软GitHub Copilot 被诉违反开源许可条款和侵犯开发人员权益
编译:代码卫士
GitHub Copilot 发布于2022年6月,是一款基于AI的编程助手,使用 OpenAI Codex在Visual Studio中生成实时源代码和函数建议。研究人员使用公开仓库中的数十亿行代码,通过机器学习训练了该工具,该工具可将数十种编程语言的自然语言转换为代码片段。
将作者踢出局
虽然 Copilot 可提高代码编写速度,让软件开发变得更容易,但其使用开源代码的行为使专家担忧违反了许可归属和限制条件要求。
开源许可证如GPL、Apache 和 MIT 许可证等,要求进行作者姓名归属以及明确特定版权。然而,Copilot 正在删除这一组件,甚至当代码片段长度大于150个字符且直接从训练集中提取时,并不会给出作者归属。
一些编程人员甚至认为这种行为是“开源洗白”,这种方式带来的法律问题随着该AI工具的发布而得以证实。
代表Butterick 的律所 Joseph Saveri 评论称,“微软似乎通过忽视底层开源许可条件和其它法律要求,通过他人的成果牟利。”更糟糕的是,人们发现Copilot错误地将机密信息公开发布在公开仓库中,导致这些信息如API密钥被包含在训练集中。
除了违反许可条款外,Butterick 还表示开发特性违反了如下要求:
GitHub 的服务和隐私策略条款
DMCA 1202,该条款禁止删除版权管理信息
加利福尼亚消费者隐私法案
以及其它法律要求
该起诉提交至美国地方法院加利福尼亚北区,要求批准法定损害赔偿90亿美元。该起诉书指出,“Copilot 每次提供不合法的输出时,它就三次违反 Section 1202(在没有(1)归属(2)版权通知和(3)许可条款的情况下分发许可材料)。因此,如果每名用户在使用Copilot 期间仅收到违反 Section 1202的一份输出(最早的使用者最多使用期限是15个月),那么GitHub 和 OpenAI 违反DMCA的次数就达到360万次。每次违反的最低法定损害是2500美元,因此最终为90亿美元。”
损害开源生态
Butterick 还在今年10月初在文章中提到了另外一个主题,提到了Copilot 为开源社区造成的损害。
他表示,向人们提供代码片段但不告诉代码创造人是谁,使得开源贡献和协作的动力严重丧失了。微软正在制造一个新的围墙花园,它将阻止编程人员发现传统的开源社区。随着时间的流逝,这一流程将使开源社区荒废。用户注意力和参与度将远离原仓库本身——远离其源仓库、问题追踪工具、邮件列表和讨论版。”
Butterick 担心在足够长的时间内,Copilot 将导致开源社区减少,进而导致该训练集数据中的代码质量下降。
GitHub 评论称,“从一开始,Copilot就致力于负责任地创新,而且将继续改进产品,为全球开发人员提供最好的服务。”
一个值1万美元奖励的GitHub 登录欺骗漏洞
钱少事多,开源项目维护人员几乎集体出走
Netflix 推出漏洞奖励计划并承诺不会起诉研究人员
新型NPM计时攻击可导致供应链攻击,GitHub 不打算修复
https://www.bleepingcomputer.com/news/security/microsoft-sued-for-open-source-piracy-through-github-copilot/
题图:Pixabay License
本文由奇安信编译,不代表奇安信观点。转载请注明“转自奇安信代码卫士 https://codesafe.qianxin.com”。
奇安信代码卫士 (codesafe)
国内首个专注于软件开发安全的产品线。