Copilot, asistentul AI al GitHub, a primit critici puternice din partea comunității open source

Acum câteva zile Împărtășim știrile Copilot aici pe blog, care este un asistent de inteligență artificială pentru scrierea codului GitHub și pe care practic îl prezint ca instrument de ajutor pentru programatori.

Chiar dacă Copilotul diferă de sistemele de completare a codului tradițional pentru capacitatea de a forma blocuri de cod destul de complexe, până la funcții gata de utilizare sintetizate ținând cont de contextul actual. La fel de Copilotul este o funcție AI care a învățat prin câteva milioane de linii de cod și recunoaște ceea ce planificați pe baza definiției unei funcții etc.

Si bien Copilotul reprezintă o mare economie de timp datorită învățării a milioane de linii de cod, ceea ce a început să creeze temeri că instrumentul ar putea eluda cerințele de licențiere open source și ar putea încălca legile privind drepturile de autor.

Armin Ronacher, un dezvoltator proeminent în comunitatea open source, el este unul dintre dezvoltatorii care a devenit frustrat de modul în care a fost construit Copilot, întrucât menționează că a experimentat cu instrumentul și a postat o captură de ecran pe Twitter în care menționează că i s-a părut ciudat că Copilotul, un instrument de inteligență artificială care este comercializat, ar putea produce cod cu drepturi de autor.

Având în vedere acest lucru, unii dezvoltatori au început să se alarmeze pentru utilizarea codului public pentru a antrena inteligența artificială a instrumentului. O preocupare este că, dacă Copilot reproduce bucăți suficient de mari de cod existent, ar putea încălca drepturile de autor sau văruiți codul open source pentru utilizări comerciale fără licența corespunzătoare (practic o sabie cu două tăișuri).

În plus, s-a demonstrat că instrumentul poate include și informații personale pe care dezvoltatorii l-au publicat și, într-un caz, a replicat codul larg citat din jocul pentru PC Quake III Arena din 1999, inclusiv comentarii de la dezvoltatorul John Carmack.

Cole Garry, un purtător de cuvânt al Github, a refuzat să comenteze, mulțumindu-se să facă referire la întrebările frecvente existente ale companiei pe site-ul Copilot, care recunoaște că instrumentul poate produce fragmente de text din datele sale de antrenament.

Acest lucru se întâmplă în aproximativ 0.1% din timp, potrivit GitHub, de obicei atunci când utilizatorii nu oferă suficient context în jurul solicitărilor lor sau când problema are o soluție banală.

„Suntem în proces de implementare a unui sistem de urmărire a surselor pentru a detecta cazurile rare în care codul este repetat în toate datele de antrenament, pentru a vă ajuta să luați decizii bune în timp real. În ceea ce privește sugestiile lui GitHub Copilot”, se spune în întrebările frecvente ale companiei.

Între timp, CEO-ul GitHub, Nat Friedman, a susținut că instruirea sistemelor de învățare automată pe date publice este o utilizare legitimă, recunoscând în același timp că „proprietatea intelectuală și inteligența artificială vor fi subiectul unei discuții politice interesante.” la care compania va participa activ.

Într-unul dintre tweeturile sale, el a scris:

„GitHub Copilot a fost, prin propria sa recunoaștere, construit pe munți de cod GPL, așa că nu sunt sigur cum aceasta nu este o formă de spălare de bani. Cod sursă deschis în lucrări comerciale. Expresia „de obicei nu reproduce părțile exacte” nu este foarte satisfăcătoare.

„Dreptul de autor nu acoperă doar copierea și lipirea; acoperă lucrările derivate. GitHub Copilot a fost format pe cod sursă deschisă și suma totală a tot ceea ce știe este luată din acel cod. „Nu există o interpretare posibilă a termenului „derivat” care să nu includă acest lucru”, a scris el. „Generația anterioară de inteligență artificială a fost instruită pe texte și fotografii publice, care sunt mai greu de revendicat drepturi de autor, dar acest lucru este preluat din lucrări grozave cu licențe foarte explicite testate de instanțe, așa că aștept cu nerăbdare inevitabilul/colectiv/ acțiuni în masă în acest sens.”

În cele din urmă, trebuie să așteptăm acțiunile pe care le va întreprinde GitHub pentru a modifica modul în care este antrenat Copilot, deoarece la sfârșitul zilei, mai devreme sau mai târziu, modul în care generează codul poate pune în dificultate mai mult de un dezvoltator.


Fii primul care comenteaza

Lasă comentariul tău

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

*

*

  1. Responsabil pentru date: Miguel Ángel Gatón
  2. Scopul datelor: Control SPAM, gestionarea comentariilor.
  3. Legitimare: consimțământul dvs.
  4. Comunicarea datelor: datele nu vor fi comunicate terților decât prin obligație legală.
  5. Stocarea datelor: bază de date găzduită de Occentus Networks (UE)
  6. Drepturi: în orice moment vă puteți limita, recupera și șterge informațiile.