Copilot, помощник искусственного интеллекта GitHub, получил резкую критику со стороны сообщества разработчиков ПО с открытым исходным кодом.

Несколько дней тому назад делимся здесь, в блоге, новостями Copilot, который представляет собой мастер искусственного интеллекта для написания кода GitHub, который я в основном представляю как вспомогательный инструмент для программистов.

Хотя второй пилот отличается от систем автозавершения кода традиционный из-за возможности формировать достаточно сложные блоки кода, вплоть до готовых функций, синтезируемых с учетом текущего контекста. В виде Copilot - это функция искусственного интеллекта, которая изучила несколько миллионов строк кода. и он распознает то, что вы планируете, на основе определения функции и т. д.

В то время как Copilot - отличный помощник для экономии времени из-за изучения миллионов строк кода, который начал вызывать опасения, что инструмент может обойти требования лицензирования с открытым исходным кодом и нарушить законы об авторском праве.

Армин Ронахер, известный разработчик в сообществе разработчиков ПО с открытым исходным кодом он является одним из разработчиков, были разочарованы тем, как был построен Copilot, поскольку он упоминает, что экспериментировал с инструментом, и опубликовал снимок экрана в Twitter, на котором упоминает, что ему показалось странным, что второй пилот, коммерциализированный инструмент искусственного интеллекта, может создавать код, защищенный авторским правом.

Учитывая это, некоторые разработчики начали тревожиться. за счет использования открытого кода для обучения искусственного интеллекта инструмента. Одна проблема заключается в том, что если Copilot воспроизводит достаточно большие фрагменты существующего кода, это может нарушить авторские права или отмыть открытый исходный код для коммерческого использования без надлежащей лицензии (по сути, палка о двух концах).

Кроме того, было показано, что инструмент также может включать личную информацию опубликовано разработчиками и в одном случае скопировал широко цитируемый код из компьютерной игры Quake III Arena 1999 года, включая комментарии разработчика Джона Кармака.

Коул Гарри, представитель Github, отказался от комментариев и удовлетворился ссылкой на существующий FAQ компании на веб-сайте Copilot, в котором признается, что инструмент может создавать текстовые фрагменты из ваших данных обучения.

Согласно GitHub, это происходит примерно в 0.1% случаев, обычно когда пользователи не предоставляют достаточного контекста для своих запросов или когда проблема имеет тривиальное решение.

«Мы находимся в процессе внедрения системы отслеживания происхождения для обнаружения редких случаев повторения кода во всех обучающих данных, чтобы помочь вам принимать правильные решения в режиме реального времени. Что касается предложений GitHub Copilot », - говорится в FAQ компании..

Между тем, генеральный директор GitHub Нат Фридман утверждал, что обучение систем машинного обучения на общедоступных данных является законным использованием, признавая при этом, что «интеллектуальная собственность и искусственный интеллект станут предметом интересной политической дискуссии», в которой компания будет активно участвовать.

В одном из своих твитов он написал:

«GitHub Copilot, по его собственному признанию, был построен на огромном количестве кода GPL, поэтому я не уверен, что это не форма отмывания денег. Открытый исходный код в коммерческих работах. Фраза «обычно не воспроизводит точные пьесы» не очень удовлетворительна ».

«Авторское право распространяется не только на копирование и вставку; охватывает производные работы. GitHub Copilot был создан с открытым исходным кодом, и все, что вы знаете, взято из этого кода. «Не существует возможной интерпретации термина« производный », которая не включала бы это», - написал он. «Старшее поколение ИИ обучалось общедоступным текстам и фотографиям, на которые сложнее заявить авторские права, но этот взят из великих произведений с очень явными лицензиями, проверенными судами, поэтому я с нетерпением жду неизбежного / массовые действия по этому поводу ».

Наконец, нам нужно дождаться действий, которые GitHub предпримет, чтобы изменить способ обучения Copilot, поскольку, в конце концов, способ генерации кода рано или поздно может создать проблемы более чем одному разработчику.


Содержание статьи соответствует нашим принципам редакционная этика. Чтобы сообщить об ошибке, нажмите здесь.

Будьте первым, чтобы комментировать

Оставьте свой комментарий

Ваш электронный адрес не будет опубликован. Обязательные для заполнения поля помечены *

*

*

  1. Ответственный за данные: Мигель Анхель Гатон
  2. Назначение данных: контроль спама, управление комментариями.
  3. Легитимация: ваше согласие
  4. Передача данных: данные не будут переданы третьим лицам, кроме как по закону.
  5. Хранение данных: база данных, размещенная в Occentus Networks (ЕС)
  6. Права: в любое время вы можете ограничить, восстановить и удалить свою информацию.