Copilot, l'assistente AI di GitHub ha ricevuto forti critiche dalla comunità open source

Qualche giorno fa condividiamo qui sul blog le novità di Copilot, che è una procedura guidata di intelligenza artificiale per scrivere codice GitHub e che presento fondamentalmente come strumento di aiuto per i programmatori.

Anche se Copilot differisce dai sistemi di completamento del codice tradizionale per la capacità di formare blocchi di codice piuttosto complessi, fino a funzioni pronte all'uso sintetizzate tenendo conto del contesto attuale. Come Copilot è una funzione AI che ha appreso attraverso diversi milioni di righe di codice e riconosce ciò che stai pianificando in base alla definizione di una funzione, ecc.

Mentre Copilot rappresenta un grande risparmio di tempo a causa dell'apprendimento di milioni di righe di codice, che ha iniziato a sollevare timori che lo strumento possa eludere i requisiti di licenza open source e violare le leggi sul copyright.

Armin Ronacher, un importante sviluppatore nella comunità open source, è uno degli sviluppatori che frustrato dal modo in cui Copilot è stato costruito, mentre afferma di aver sperimentato lo strumento e ha pubblicato uno screenshot su Twitter in cui afferma che gli sembrava strano che Copilot, uno strumento di intelligenza artificiale che viene commercializzato, potrebbe produrre codice protetto da copyright.

Detto questo, alcuni sviluppatori hanno iniziato ad allarmarsi dall'uso del codice pubblico per addestrare l'intelligenza artificiale dello strumento. Una delle preoccupazioni è che se Copilot riproduce pezzi sufficientemente grandi di codice esistente, potrebbe violare il copyright o riciclare codice open source per uso commerciale senza la licenza appropriata (fondamentalmente un'arma a doppio taglio).

Inoltre, è stato dimostrato che lo strumento può includere anche informazioni personali pubblicato dagli sviluppatori e in un caso, ha replicato il codice ampiamente citato del gioco per PC Quake III Arena del 1999, inclusi i commenti dello sviluppatore John Carmack.

Cole Garry, un portavoce di Github, ha rifiutato di commentare e si è accontentato di fare riferimento alle FAQ esistenti dell'azienda sul sito Web di Copilot, che riconosce che lo strumento può produrre frammenti di testo dai dati di allenamento.

Questo accade circa lo 0.1% delle volte, secondo GitHub, di solito quando gli utenti non forniscono un contesto sufficiente intorno alle loro richieste o quando il problema ha una soluzione banale.

“Stiamo implementando un sistema di tracciamento dell'origine per rilevare le rare istanze di ripetizione del codice in tutti i dati di addestramento, per aiutarti a prendere buone decisioni in tempo reale. Per quanto riguarda i suggerimenti di GitHub Copilot ", affermano le domande frequenti dell'azienda.

Nel frattempo, il CEO di GitHub Nat Friedman ha sostenuto che la formazione di sistemi di apprendimento automatico sui dati pubblici è un uso legittimo, pur riconoscendo che "la proprietà intellettuale e l'intelligenza artificiale saranno oggetto di un'interessante discussione politica" a cui l'azienda parteciperà attivamente.

In uno dei suoi tweet, ha scritto:

“GitHub Copilot è stato, per sua stessa ammissione, costruito su montagne di codice GPL, quindi non sono sicuro di come questa non sia una forma di riciclaggio di denaro. Codice open source in opere commerciali. La frase "di solito non riproduce i pezzi esatti" non è molto soddisfacente".

“Il copyright non riguarda solo il copia e incolla; copre i lavori derivati. GitHub Copilot è stato costruito su codice open source e la somma totale di tutto ciò che sai è presa da quel codice. Non c'è interpretazione possibile del termine 'derivato' che non includa questo', ha scritto. “La vecchia generazione di AI è stata formata in testi e foto pubbliche, su cui è più difficile rivendicare i diritti d'autore, ma questa è tratta da grandi opere con licenze molto esplicite testate dai tribunali, quindi attendo con ansia l'inevitabile / collettivo / azioni massicce su questo”.

Infine, dobbiamo attendere le azioni che GitHub intraprenderà per modificare il modo in cui viene addestrato Copilot, poiché alla fine, prima o poi, il modo in cui genera il codice può mettere in difficoltà più di uno sviluppatore.


Lascia un tuo commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati con *

*

*

  1. Responsabile dei dati: Miguel Ángel Gatón
  2. Scopo dei dati: controllo SPAM, gestione commenti.
  3. Legittimazione: il tuo consenso
  4. Comunicazione dei dati: I dati non saranno oggetto di comunicazione a terzi se non per obbligo di legge.
  5. Archiviazione dati: database ospitato da Occentus Networks (UE)
  6. Diritti: in qualsiasi momento puoi limitare, recuperare ed eliminare le tue informazioni.