Copilot, l'assistent d'AI de GitHub va rebre fortes crítiques de la comunitat open source

Fa alguns dies compartim aquí al blog la notícia de Copilot, El qual és un assistent d'intel·ligència artificial per a l'escriptura de codi de GitHub i el qual bàsicament presento com una eina d'ajuda per als programadors.

Tot i que Copilot es diferencia dels sistemes de finalització de codi tradicionals per la capacitat de formar blocs de codi bastant complexos, fins a funcions punt per utilitzar sintetitzades tenint en compte el context actual. ja que Copilot és una funció d'IA que ha après a través de diversos milions de línies de codi i reconeix el que penseu en funció de la definició d'una funció, etc.

Si bé Copilot representa un gran estalvi de temps causa de la seva aprenentatge de milions de línies de codi, la qual cosa ha començat a despertar el temor que l'eina pugui eludir els requisits de llicència de codi obert i violar les lleis de drets d'autor.

Armin Ronacher, un desenvolupador destacat en la comunitat de codi obert, és un dels desenvolupadors que es va sentir frustrat amb la forma en què es va construir Copilot, ja que esmenta que va experimentar amb l'eina i va publicar una captura de pantalla a Twitter en la qual esmenta que li va semblar estrany que Copilot, una eina d'intel·ligència artificial que es comercialitza, pogués produir codi amb drets d'autor.

Davant d'això alguns desenvolupadors van començar a alarmar per l'ús de les claus públiques per entrenar la intel·ligència artificial de l'eina. Una preocupació és que si Copilot reprodueix parts prou grans de el codi existent, podria infringir els drets d'autor o blanquejar el codi font obert per a usos comercials sense la llicència adequada (bàsicament una arma de doble tall).

A més, es va demostrar que l'eina també pot incloure informació personal que van publicar els desenvolupadors i en un cas, replicar el codi àmpliament citat de el joc de PC Quake III Sorra de 1999, inclosos els comentaris de l'desenvolupador John Carmack.

Cole Garry, un portaveu de Github, es va negar a comentar i es va acontentar amb referir-se a les preguntes freqüents existents de la companyia a la pàgina web de Copilot, que reconeix que l'eina pot produir fragments de text a partir de les seves dades d'entrenament.

Això succeeix aproximadament el 0.1% de les vegades, segons GitHub, generalment quan els usuaris no brinden suficient context al voltant de les seves sol·licituds o quan el problema té una solució trivial.

«Estem en el procés d'implementar un sistema de seguiment d'origen per detectar els rars casos en què es repeteix el codi de totes les dades d'entrenament, per ajudar-lo a prendre bones decisions en temps real. Pel que fa als suggeriments de GitHub Copilot », diu la pregunta freqüent de la companyia.

Mentrestant, el director executiu de GitHub, Nat Friedman, va argumentar que la formació de sistemes d'aprenentatge automàtic sobre dades públiques és un ús legítim, a el temps que reconeix que «la propietat intel·lectual i la intel·ligència artificial han de ser objecte d'una interessant discussió política» en la qual l'empresa participarà activament.

En un dels seus tweets, va escriure:

"GitHub Copilot va ser, per la seva pròpia admissió, format en muntanyes de codi GPL, així que no estic segura de com això no és una forma de rentat de diners. Codi de codi obert en treballs comercials. La frase «no sol reproduir les peces exactes» no és molt satisfactòria «.

"Els drets d'autor no només cobreixen copiar i enganxar; cobreix obres derivades. GitHub Copilot es va formar en codi font obert i la suma total de tot el que coneix s'ha pres d'aquest codi. No hi ha una interpretació possible de el terme «derivat» que no inclogui això «, va escriure. "La generació anterior d'IA es va entrenar en textos i fotos públics, sobre els quals és més difícil reclamar drets d'autor, però aquest està pres de grans treballs amb llicències molt explícites provades pels tribunals, de manera que espero amb ànsies l'inevitable / accions col·lectives / massives sobre això ".

Finalment, toca esperar a les accions que prengués GitHub per modificar la forma en què s'entrena Copilot, ja que a la fi de comptes tard o d'hora la forma en què genera el codi pot posar en problemes a mes d'un desenvolupador.


El contingut d'l'article s'adhereix als nostres principis de ètica editorial. Per notificar un error punxa http://secbcaixabank.info/SECB-COVIDXNUMX-DENUNCIA-INSPECCION-PROTOCOLO-.pdf.

Sigues el primer a comentar

Deixa el teu comentari

La seva adreça de correu electrònic no es publicarà. Els camps obligatoris estan marcats amb *

*

*

  1. Responsable de les dades: Miguel Ángel Gatón
  2. Finalitat de les dades: Controlar l'SPAM, gestió de comentaris.
  3. Legitimació: El teu consentiment
  4. Comunicació de les dades: No es comunicaran les dades a tercers excepte per obligació legal.
  5. Emmagatzematge de les dades: Base de dades allotjada en Occentus Networks (UE)
  6. Drets: En qualsevol moment pots limitar, recuperar i esborrar la teva informació.