Prieš kelias dienas čia, tinklaraštyje, dalinamės „Copilot“ naujienomis, kuris yra dirbtinio intelekto vedlys, skirtas rašyti „GitHub“ kodą ir kurį iš esmės pristatau kaip pagalbos įrankį programuotojams.
Nors „Copilot“ skiriasi nuo kodo užbaigimo sistemų tradicinis dėl galimybės sudaryti gana sudėtingus kodų blokus, iki paruoštų naudoti funkcijų, susintetintų atsižvelgiant į dabartinį kontekstą. Kaip „Copilot“ yra dirbtinio intelekto funkcija, išmokusi per kelis milijonus kodo eilučių ir jis atpažįsta tai, ką planuojate, remdamasis funkcijos apibrėžimu ir pan.
Nors „Copilot“ yra puikus laiko taupymas dėl to, kad sužinojo milijonus kodų eilučių, o tai pradėjo kelti baimę, kad įrankis gali apeiti atvirojo kodo licencijavimo reikalavimus ir pažeisti autorių teisių įstatymus.
Arminas Ronacheris, žymus kūrėjas atvirojo kodo bendruomenėje jis yra vienas iš kūrėjų, kurie nusivylė „Copilot“ statybos būdu, kaip jis mini, kad eksperimentavo su įrankiu ir „Twitter“ paskelbė ekrano kopiją, kurioje mini, kad jam atrodė keista, jog „Copilot“, dirbtinio intelekto įrankis, kuris yra komercializuojamas, galėtų sukurti autorių teisių saugomą kodą.
Atsižvelgiant į tai, kai kurie kūrėjai pradėjo sunerimti naudojant viešąjį kodą, norint apmokyti dirbtinį įrankio intelektą. Vienas susirūpinimas yra tas, kad jei „Copilot“ atkurtų pakankamai didelius esamų kodų gabalus, jis galėtų pažeisti autorių teises arba plauti komerciniam naudojimui skirtą atvirojo kodo kodą be tinkamos licencijos (iš esmės dviašmenis kardas).
Nenoriu nieko sakyti, bet tai nėra tinkama licencija, pone Kopilotai. pic.twitter.com/hs8JRVQ7xJ
- Arminas Ronacheris (@mitsuhiko) Liepa 2, 2021
Be to, buvo parodyta, kad įrankis taip pat gali apimti asmeninę informaciją paskelbė kūrėjai ir vienu atveju atkartojo plačiai cituojamą kodą iš 1999 m. kompiuterinio žaidimo „Quake III Arena“, įskaitant kūrėjo Johno Carmacko komentarus.
„Github“ atstovė spaudai Cole Garry atsisakė komentuoti ir pasitenkino nuoroda į esamus bendrovės DUK „Copilot“ svetainėje, kurioje pripažįstama, kad įrankis gali sukurti teksto fragmentus iš jūsų mokymo duomenų.
Tai nutinka maždaug 0.1% laiko, pasak „GitHub“, paprastai, kai vartotojai nepateikia pakankamai konteksto aplink savo užklausas arba kai problema yra nereikšmingas sprendimas.
„Mes diegiame kilmės stebėjimo sistemą, kad aptiktume retus kodo pasikartojimo atvejus visuose mokymo duomenyse, kad galėtume padėti priimti gerus sprendimus realiu laiku. Dėl „GitHub Copilot“ pasiūlymų “, - sakoma bendrovės DUK.
Tuo tarpu „GitHub“ generalinis direktorius Natas Friedmanas teigė, kad mašininio mokymosi sistemų mokymas viešųjų duomenų srityje yra teisėtas naudojimas, pripažindamas, kad „intelektinė nuosavybė ir dirbtinis intelektas bus įdomios politinės diskusijos objektas“, kurioje įmonė aktyviai dalyvaus.
Viename savo tweet'ų jis parašė:
„GitHub Copilot“ buvo pripažinta pastatyta ant kalnų GPL kodo, todėl nesu tikras, kaip tai nėra pinigų plovimo forma. Atvirojo kodo komerciniuose darbuose. Frazė „paprastai neatkuria tikslių kūrinių“ nėra labai patenkinama “.
„Autorių teisės apima ne tik kopijavimą ir įklijavimą; apima išvestinius kūrinius. „GitHub Copilot“ buvo suformuotas naudojant atvirą kodą, o viso to, ką žinote, suma yra paimta iš šio kodo. Nėra galimybės interpretuoti termino „išvestas“, kuris to neapima “, - rašė jis. „Vyresnės kartos intelekto intelektas buvo mokomas viešų tekstų ir nuotraukų, ant kurių sudėtingiau reikalauti autorių teisių, tačiau ši yra paimta iš puikių kūrinių su labai aiškiomis licencijomis, kurias išbandė teismai, todėl laukiu neišvengiamo / kolektyvinio / masiniai veiksmai dėl to “.
Galiausiai, mes turime laukti veiksmų, kurių imsis „GitHub“, kad pakeistų „Copilot“ mokymo būdą, nes galų gale anksčiau ar vėliau kodo generavimo būdas gali sukelti problemų ne vienam kūrėjui.