FSF 表示“不可接受和不公平”,并将资助有关法律问题和问题的文章

不久前 我们在博客上分享 «Copilot» 的新闻 这是 有望节省时间的人工智能 通过使用研究公司 OpenAI 的名为 Codex 的人工智能系统,帮助用户编写代码并提出他们自己的建议,这些建议基于用户公开向 GitHub 做出贡献的数十亿行公共代码。

虽然 Copilot 可以节省大量时间 而 GitHub 将 Copilot 描述为“结对编程”的 AI 等价物, 其中两个开发人员在一台计算机上一起工作。 这个想法是,一个开发人员可以提出新的想法或发现其他开发人员可能遗漏的问题,即使这需要更多的工作时间。

在实践中但是,Copilot 更像是一种节省时间的实用工具,因为它 集成了开发人员必须在别处寻找的资源。 当用户将数据输入 Copilot 时, 该工具建议片段 他们只需单击一个按钮即可添加。 这样他们就不必浪费时间寻找 API 文档或在 StackOverflow 等网站上寻找示例代码。

GitHub Copilot 上的神经网络使用由代码组成的海量数据进行训练——GitHub 是全球最大的开发人员协作和共享工作平台,其 65 万用户上传了数百万行代码。

目标是让 Copilot 充分了解代码模式,以便能够自行破解。 您可以从人类合作伙伴那里获取不完整的代码,并通过添加缺失的部分来完成工作。 在大多数情况下,这样做似乎是成功的。 GitHub 计划向开发人员出售对该工具的访问权限。

像大多数人工智能工具一样, GitHub 还希望 Copilot 根据其收集的数据随着时间的推移变得更加智能 用户

当用户接受或拒绝 Copilot 的建议时,他们的机器学习模型将使用该反馈来改进未来的建议,因此该工具在学习时可以变得更加人性化。

在 Copilot 推出后不久, 一些开发者开始对公共代码的使用感到震惊 训练工具的人工智能。 一种担忧是 如果 Copilot 复制足够大的现有代码块,则可能侵犯版权 或在没有适当许可的情况下清洗用于商业用途的开源代码。

关于它 自由软件基金会宣布已发起电话 资助请求关于 Copilot 对自由软件社区影响的技术报告

“从我们的角度来看,我们已经知道 Copilot 是不可接受和不公平的。 它需要运行非自由软件(Visual Studio 或 Visual Studio Code 的一部分),而 Copilot 是替代该软件的服务。

原因是 Copilot 需要运行非自由软件, 作为 Microsoft 的 Visual Studio IDE 或 Visual Studio Code 的发布者,维护 FSF,并构成“服务作为软件的替代品”,这意味着它是一种获得超越他人计算能力的方式。

既然如此 Copilot 是一个使用机器学习的 Visual Studio Code 扩展 接受免费许可的开源软件培训,在开发人员编写软件时向他们建议代码行或功能。

但是,Copilot 提出了许多其他需要进一步考虑的问题。

“自由软件基金会收到了许多关于我们在这些问题上的立场的询问。 我们可以看到 Copilot 对开源软件的使用对自由软件社区的很大一部分有很多影响。 开发人员想知道在他们的软件中训练神经网络是否真的可以被视为合理使用。 其他可能对使用 Copilot 感兴趣的人想知道从 GitHub 托管的存储库中复制的代码片段和其他材料是否会导致侵犯版权。 

数据来源: https://www.fsf.org/


成为第一个发表评论

发表您的评论

您的电子邮件地址将不会被发表。 必填字段标有 *

*

*

  1. 负责数据:MiguelÁngelGatón
  2. 数据用途:控制垃圾邮件,注释管理。
  3. 合法性:您的同意
  4. 数据通讯:除非有法律义务,否则不会将数据传达给第三方。
  5. 数据存储:Occentus Networks(EU)托管的数据库
  6. 权利:您可以随时限制,恢复和删除您的信息。