FSF di "inaceptable e inxusto" e financiará artigos sobre cuestións e cuestións legais

Non hai moito compartimos aquí no blog as novas de «Copilot» que é unha IA que promete aforrar tempo axudando coa escritura de código de usuario coas súas propias suxestións baseadas en miles de millóns de liñas de código público cuxos usuarios contribuíron publicamente a GitHub, usando un sistema de intelixencia artificial chamado Codex da firma de investigación OpenAI.

Mentres Copilot é un aforro de tempo enorme e GitHub describe a Copilot como o equivalente AI da "programación de pares", no que dous desenvolvedores traballan xuntos nun mesmo computador. A idea é que un desenvolvedor poida ter novas ideas ou detectar problemas que o outro desenvolvedor podería perder, aínda que precise máis horas de traballo.

Na prácticaNon obstante, Copilot é máis unha ferramenta de aforro de tempo integra recursos que os desenvolvedores terían que buscar noutros lugares. A medida que os usuarios introducen datos en Copilot, a ferramenta suxire fragmentos para que os engadan co clic dun botón. Deste xeito non teñen que perder o tempo buscando documentación da API ou buscando código de mostra en sitios como StackOverflow.

Unha rede neuronal en GitHub Copilot está adestrada usando cantidades masivas de datos, formadas por código: millóns de liñas cargadas polos 65 millóns de usuarios de GitHub, a plataforma máis grande do mundo para que os desenvolvedores colaboren e compartan o seu traballo.

O obxectivo é que Copilot aprenda o suficiente sobre os patróns de código para poder piratear por si só. Podes tomar o código incompleto dun compañeiro humano e rematar o traballo engadindo as partes que faltan. Na maioría dos casos, parece ter éxito ao facelo. GitHub ten previsto vender o acceso á ferramenta a desenvolvedores.

Como a maioría das ferramentas de intelixencia artificial, GitHub tamén quere que Copilot se faga máis intelixente co paso do tempo baseándose nos datos que recolle de usuarios.

Cando os usuarios aceptan ou rexeitan as suxestións de Copilot, o seu modelo de aprendizaxe automática empregará esa retroalimentación para mellorar futuras suxestións, polo que a ferramenta pode ser máis humana a medida que aprende.

Pouco despois do lanzamento de Copilot, algúns desenvolvedores comezaron a alarmarse polo uso do código público para adestrar a intelixencia artificial da ferramenta. Unha das preocupacións é esa Se Copilot reproduce partes suficientemente grandes do código existente, podería ser unha infracción do copyright ou lavar código fonte aberto para uso comercial sen a licenza adecuada.

Sobre iso A Free Software Foundation anunciou que lanzou unha convocatoria financiado para solicitar informes técnicos sobre as implicacións de Copilot para a comunidade de software libre

“Xa sabemos que Copilot como é é inaceptable e inxusto, dende o noso punto de vista. Require executar software non libre (Visual Studio ou partes de Visual Studio Code) e Copilot é un servizo que substitúe o software.

A razón é que Copilot require un software non libre, como o Visual Studio IDE de Microsoft ou o editor de Visual Studio Code, mantén o FSF e constitúe un "servizo como substituto do software", o que significa que é un xeito de gañar poder sobre a informática doutras persoas.

Xa que como tal Copilot é unha extensión de Visual Studio Code que utiliza a aprendizaxe automática adestrado en software de código aberto con licenza libre para suxerir liñas de código ou funcións aos desenvolvedores mentres escriben software.

Non obstante, Copilot suscita moitas outras preguntas que requiren unha maior consideración.

“A Free Software Foundation recibiu moitas preguntas sobre a nosa posición sobre estes temas. Podemos ver que o uso de software de código aberto por Copilot ten moitas implicacións para unha gran parte da comunidade de software libre. Os desenvolvedores queren saber se a formación dunha rede neuronal no seu software realmente pode considerarse un uso xusto. Outras persoas que poden estar interesadas en usar Copilot pregúntanse se fragmentos de código e outro material copiado en repositorios aloxados en GitHub poden provocar infraccións dos dereitos de autor. 

Fuente: https://www.fsf.org/


O contido do artigo adhírese aos nosos principios de ética editorial. Para informar dun erro faga clic en aquí.

Sexa o primeiro en opinar sobre

Deixa o teu comentario

Enderezo de correo electrónico non será publicado. Os campos obrigatorios están marcados con *

*

*

  1. Responsable dos datos: Miguel Ángel Gatón
  2. Finalidade dos datos: controlar SPAM, xestión de comentarios.
  3. Lexitimación: o seu consentimento
  4. Comunicación dos datos: os datos non serán comunicados a terceiros salvo obrigación legal.
  5. Almacenamento de datos: base de datos aloxada por Occentus Networks (UE)
  6. Dereitos: en calquera momento pode limitar, recuperar e eliminar a súa información.