Copilot, помощникът за изкуствен интелект на GitHub, получи силна критика от общността с отворен код

Преди няколко дни споделяме тук в блога новините на Copilot, който е съветник за изкуствен интелект за писане на GitHub код и който по принцип представям като помощен инструмент за програмисти.

Въпреки че Copilot се различава от системите за попълване на код традиционен за способността да се формират доста сложни кодови блокове, до готови за използване функции, синтезирани, отчитайки текущия контекст. Като Copilot е AI функция, която се е научила чрез няколко милиона реда код и разпознава какво планирате въз основа на дефиницията на функция и т.н.

Докато Copilot представлява страхотно спестяване на време поради изучаването на милиони редове код, което започна да поражда опасения, че инструментът може да заобиколи изискванията за лицензиране с отворен код и да наруши законите за авторското право.

Армин Ронахер, виден разработчик в общността с отворен код, той е един от разработчиците, които разочарован от начина, по който е построен Copilot, като споменава, че е експериментирал с инструмента и е публикувал екранна снимка в Twitter, в която споменава, че му се е сторило странно, че копилотът, инструмент за изкуствен интелект, който се комерсиализира, може да създаде защитен с авторски права код.

Като се има предвид това, някои разработчици започнаха да се тревожат чрез използване на публичен код за обучение на изкуствения интелект на инструмента. Едно от притесненията е, че ако Copilot възпроизведе достатъчно големи парчета от съществуващия код, той може да наруши авторски права или да измие код с отворен код за търговска употреба без подходящ лиценз (основно меч с две остриета).

Освен това, беше показано, че инструментът може да включва и лична информация публикувано от разработчиците и в един случай, копира широко цитирания код от компютърната игра 1999 Quake III Arena, включително коментари от разработчика Джон Кармак.

Коул Гари, говорител на Github, отказа да коментира и се задоволи да се позове на съществуващите често задавани въпроси на компанията на уебсайта на Copilot, който признава, че инструментът може да създава текстови фрагменти от вашите данни за обучение.

Това се случва около 0.1% от времето, според GitHub, обикновено когато потребителите не предоставят достатъчно контекст около своите заявки или когато проблемът има тривиално решение.

„Ние сме в процес на внедряване на система за проследяване на произход, за да открием редките случаи на повторение на код във всички данни за обучение, за да ви помогнем да вземате добри решения в реално време. По отношение на предложенията за GitHub Copilot “, се казва в често задаваните въпроси на компанията.

Междувременно главният изпълнителен директор на GitHub Нат Фридман аргументира, че обучението на системи за машинно обучение на публични данни е легитимна употреба, като същевременно признава, че „интелектуалната собственост и изкуственият интелект ще бъдат обект на интересна политическа дискусия“, в която компанията ще участва активно.

В един от своите туитове той пише:

„GitHub Copilot, по собствено признание, е изграден върху планини от GPL код, така че не съм сигурен как това не е форма на пране на пари. Отворен код в търговски произведения. Фразата "обикновено не възпроизвежда точните парчета" не е много задоволителна ".

„Авторските права не включват само копиране и поставяне; обхваща производни произведения. GitHub Copilot е изграден върху код с отворен код и общата сума на всичко, което знаете, е взета от този код. Няма възможно тълкуване на термина „производно“, което да не включва това “, пише той. „По-старото поколение ИИ беше обучено в публични текстове и снимки, върху които е по-трудно да се искат авторски права, но това е взето от страхотни произведения с много изрични лицензи, тествани от съдилищата, така че очаквам с нетърпение неизбежното / колективно / масирани действия по този въпрос ”.

И накрая, трябва да изчакаме действията, които GitHub ще предприеме, за да модифицира начина, по който се обучава Copilot, тъй като в крайна сметка рано или късно начинът, по който генерира кода, може да създаде повече от един разработчик.


Оставете вашия коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *

*

*

  1. Отговорен за данните: Мигел Анхел Гатон
  2. Предназначение на данните: Контрол на СПАМ, управление на коментари.
  3. Легитимация: Вашето съгласие
  4. Съобщаване на данните: Данните няма да бъдат съобщени на трети страни, освен по законово задължение.
  5. Съхранение на данни: База данни, хоствана от Occentus Networks (ЕС)
  6. Права: По всяко време можете да ограничите, възстановите и изтриете информацията си.