Copilot, asistentul AI al GitHub, a primit critici puternice din partea comunității open source

Acum câteva zile împărtășim aici pe blog știrile lui Copilot, care este un vrăjitor de inteligență artificială pentru scrierea codului GitHub și pe care îl prezint practic ca instrument de ajutor pentru programatori.

Chiar dacă Copilot diferă de sistemele de completare a codului tradițional pentru capacitatea de a forma blocuri de cod destul de complexe, până la funcții gata de utilizare sintetizate ținând cont de contextul actual. La fel de Copilotul este o funcție AI care a învățat prin câteva milioane de linii de cod și recunoaște ceea ce planificați pe baza definiției unei funcții etc.

Si bien Copilotul reprezintă un economisitor excelent de timp datorită învățării a milioane de linii de cod, care a început să ridice temeri că instrumentul ar putea ocoli cerințele de licențiere open source și ar putea încălca legile drepturilor de autor.

Armin Ronacher, un dezvoltator proeminent în comunitatea open source, el este unul dintre dezvoltatorii care am fost frustrat de felul în care a fost construit Copilot, în timp ce menționează că a experimentat cu instrumentul și a postat o captură de ecran pe Twitter în care menționează că i se părea ciudat că Copilot, un instrument de inteligență artificială comercializat, ar putea produce cod protejat prin drepturi de autor.

Având în vedere acest lucru, unii dezvoltatori au început să fie alarmați prin utilizarea codului public pentru instruirea inteligenței artificiale a instrumentului. O preocupare este că, dacă Copilot reproduce bucăți suficient de mari de cod existent, ar putea încălca drepturile de autor sau spăla codul sursă deschisă pentru utilizare comercială fără licența adecvată (practic o sabie cu două tăișuri).

În plus, s-a arătat că instrumentul poate include și informații personale publicat de dezvoltatori și într-un caz, a reprodus codul pe scară largă din jocul PC Quake III Arena din 1999, inclusiv comentariile dezvoltatorului John Carmack.

Cole Garry, un purtător de cuvânt al Github, a refuzat să comenteze și s-a mulțumit să se refere la întrebările frecvente existente ale companiei pe site-ul web Copilot, care recunoaște că instrumentul poate produce fragmente de text din datele dvs. de instruire.

Acest lucru se întâmplă aproximativ 0.1% din timp, potrivit GitHub, de obicei atunci când utilizatorii nu oferă suficient context în jurul cererilor lor sau când problema are o soluție banală.

„Suntem în proces de implementare a unui sistem de urmărire a originii pentru a detecta cazurile rare de repetare a codului în toate datele de instruire, pentru a vă ajuta să luați decizii bune în timp real. În ceea ce privește sugestiile GitHub Copilot ”, spune întrebările frecvente ale companiei.

Între timp, CEO-ul GitHub, Nat Friedman, a susținut că instruirea sistemelor de învățare automată pe date publice este o utilizare legitimă, recunoscând în același timp că „proprietatea intelectuală și inteligența artificială vor face obiectul unei discuții politice interesante” la care compania va participa activ.

În unul dintre tweet-urile sale, el a scris:

„GitHub Copilot a fost, după propria sa admitere, construit pe munți de cod GPL, așa că nu sunt sigur cum acest lucru nu este o formă de spălare a banilor. Cod sursă deschisă în lucrări comerciale. Expresia "nu reproduce de obicei piesele exacte" nu este foarte satisfăcătoare ".

„Drepturile de autor nu acoperă doar copierea și lipirea; acoperă lucrări derivate. GitHub Copilot a fost construit pe un cod sursă deschisă și suma totală a tot ceea ce știi este preluată din acel cod. Nu există o interpretare posibilă a termenului „derivat” care să nu includă acest lucru ”, a scris el. „Vechea generație de AI a fost instruită în texte și fotografii publice, pe care este mai dificil să revendicați drepturile de autor, dar aceasta este preluată din lucrări extraordinare cu licențe foarte explicite testate de instanțe, așa că aștept cu nerăbdare colectivul inevitabil / colectiv. / acțiuni masive în acest sens ”.

În cele din urmă, trebuie să așteptăm acțiunile pe care le va întreprinde GitHub pentru a modifica modul în care este antrenat Copilot, deoarece la final mai devreme sau mai târziu, modul în care generează codul poate pune în dificultate mai mult de un dezvoltator.


Conținutul articolului respectă principiile noastre de etică editorială. Pentru a raporta o eroare, faceți clic pe aici.

Fii primul care comenteaza

Lasă comentariul tău

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

*

*

  1. Responsabil pentru date: Miguel Ángel Gatón
  2. Scopul datelor: Control SPAM, gestionarea comentariilor.
  3. Legitimare: consimțământul dvs.
  4. Comunicarea datelor: datele nu vor fi comunicate terților decât prin obligație legală.
  5. Stocarea datelor: bază de date găzduită de Occentus Networks (UE)
  6. Drepturi: în orice moment vă puteți limita, recupera și șterge informațiile.