Несколько дней тому назад делимся здесь, в блоге, новостями Copilot, который представляет собой мастер искусственного интеллекта для написания кода GitHub, который я в основном представляю как вспомогательный инструмент для программистов.
Хотя второй пилот отличается от систем автозавершения кода традиционный из-за возможности формировать достаточно сложные блоки кода, вплоть до готовых функций, синтезируемых с учетом текущего контекста. В виде Copilot - это функция искусственного интеллекта, которая изучила несколько миллионов строк кода. и он распознает то, что вы планируете, на основе определения функции и т. д.
В то время как Copilot - отличный помощник для экономии времени из-за изучения миллионов строк кода, который начал вызывать опасения, что инструмент может обойти требования лицензирования с открытым исходным кодом и нарушить законы об авторском праве.
Армин Ронахер, известный разработчик в сообществе разработчиков ПО с открытым исходным кодом он является одним из разработчиков, были разочарованы тем, как был построен Copilot, поскольку он упоминает, что экспериментировал с инструментом, и опубликовал снимок экрана в Twitter, на котором упоминает, что ему показалось странным, что второй пилот, коммерциализированный инструмент искусственного интеллекта, может создавать код, защищенный авторским правом.
Учитывая это, некоторые разработчики начали тревожиться. за счет использования открытого кода для обучения искусственного интеллекта инструмента. Одна проблема заключается в том, что если Copilot воспроизводит достаточно большие фрагменты существующего кода, это может нарушить авторские права или отмыть открытый исходный код для коммерческого использования без надлежащей лицензии (по сути, палка о двух концах).
Я не хочу ничего говорить, но это не та лицензия, мистер Копилот. pic.twitter.com/hs8JRVQ7xJ
- Армин Ронахер (@mitsuhiko) Июль 2, 2021
Кроме того, было показано, что инструмент также может включать личную информацию опубликовано разработчиками и в одном случае скопировал широко цитируемый код из компьютерной игры Quake III Arena 1999 года, включая комментарии разработчика Джона Кармака.
Коул Гарри, представитель Github, отказался от комментариев и удовлетворился ссылкой на существующий FAQ компании на веб-сайте Copilot, в котором признается, что инструмент может создавать текстовые фрагменты из ваших данных обучения.
Согласно GitHub, это происходит примерно в 0.1% случаев, обычно когда пользователи не предоставляют достаточного контекста для своих запросов или когда проблема имеет тривиальное решение.
«Мы находимся в процессе внедрения системы отслеживания происхождения для обнаружения редких случаев повторения кода во всех обучающих данных, чтобы помочь вам принимать правильные решения в режиме реального времени. Что касается предложений GitHub Copilot », - говорится в FAQ компании..
Между тем, генеральный директор GitHub Нат Фридман утверждал, что обучение систем машинного обучения на общедоступных данных является законным использованием, признавая при этом, что «интеллектуальная собственность и искусственный интеллект станут предметом интересной политической дискуссии», в которой компания будет активно участвовать.
В одном из своих твитов он написал:
«GitHub Copilot, по его собственному признанию, был построен на огромном количестве кода GPL, поэтому я не уверен, что это не форма отмывания денег. Открытый исходный код в коммерческих работах. Фраза «обычно не воспроизводит точные пьесы» не очень удовлетворительна ».
«Авторское право распространяется не только на копирование и вставку; охватывает производные работы. GitHub Copilot был создан с открытым исходным кодом, и все, что вы знаете, взято из этого кода. «Не существует возможной интерпретации термина« производный », которая не включала бы это», - написал он. «Старшее поколение ИИ обучалось общедоступным текстам и фотографиям, на которые сложнее заявить авторские права, но этот взят из великих произведений с очень явными лицензиями, проверенными судами, поэтому я с нетерпением жду неизбежного / массовые действия по этому поводу ».
Наконец, нам нужно дождаться действий, которые GitHub предпримет, чтобы изменить способ обучения Copilot, поскольку, в конце концов, способ генерации кода рано или поздно может создать проблемы более чем одному разработчику.