Copilot, l'assistant IA de GitHub a reçu de vives critiques de la communauté open source

Ça fait quelques jours nous partageons ici sur le blog l'actualité de Copilot, qui est un assistant d'intelligence artificielle pour écrire du code GitHub et que je présente essentiellement comme un outil d'aide pour les programmeurs.

Même si copilote diffère des systèmes de complétion de code traditionnel pour la capacité à former des blocs de code assez complexes, jusqu'à des fonctions prêtes à l'emploi synthétisées en tenant compte du contexte actuel. Car Copilot est une fonction d'IA qui a appris à travers plusieurs millions de lignes de code et il reconnaît ce que vous planifiez en fonction de la définition d'une fonction, etc.

Tandis que Copilot représente un grand gain de temps en raison de son apprentissage de millions de lignes de code, ce qui a commencé à faire craindre que l'outil puisse contourner les exigences de licence open source et violer les lois sur le droit d'auteur.

Armin Ronacher, un développeur de premier plan dans la communauté open source, il est l'un des développeurs qui frustré par la façon dont Copilot a été construit, car il mentionne qu'il a expérimenté l'outil et a publié une capture d'écran sur Twitter dans laquelle mentionne qu'il lui a semblé étrange que Copilote, un outil d'intelligence artificielle qui est commercialisé, pourrait produire un code protégé par le droit d'auteur.

Compte tenu de cela, certains développeurs ont commencé à s'alarmer par l'utilisation de code public pour former l'intelligence artificielle de l'outil. Une préoccupation est que si Copilot reproduit des morceaux suffisamment gros de code existant, il pourrait enfreindre le droit d'auteur ou blanchir le code source ouvert à des fins commerciales sans la licence appropriée (essentiellement une épée à double tranchant).

En outre, il a été démontré que l'outil peut également inclure des informations personnelles publié par les développeurs et dans un cas, reproduit le code largement cité du jeu PC 1999 Quake III Arena, y compris les commentaires du développeur John Carmack.

Cole Garry, un porte-parole de Github, a refusé de commenter et s'est contenté de se référer à la FAQ existante de l'entreprise sur le site Web de Copilot, qui reconnaît que l'outil peut produire des extraits de texte à partir de vos données d'entraînement.

Cela se produit environ 0.1% du temps, selon GitHub, généralement lorsque les utilisateurs ne fournissent pas suffisamment de contexte autour de leurs demandes ou lorsque le problème a une solution triviale.

« Nous sommes en train de mettre en place un système de suivi d'origine pour détecter les rares instances de code se répétant dans toutes les données d'entraînement, pour vous aider à prendre les bonnes décisions en temps réel. En ce qui concerne les suggestions de GitHub Copilot », indique la FAQ de l'entreprise.

Pendant ce temps, le PDG de GitHub, Nat Friedman, a fait valoir que la formation de systèmes d'apprentissage automatique sur des données publiques est une utilisation légitime, tout en reconnaissant que "la propriété intellectuelle et l'intelligence artificielle feront l'objet d'un débat politique intéressant".

Dans l'un de ses tweets, il a écrit :

« GitHub Copilot était, de son propre aveu, construit sur des montagnes de code GPL, donc je ne sais pas en quoi ce n'est pas une forme de blanchiment d'argent. Code source ouvert dans les travaux commerciaux. L'expression "ne reproduit généralement pas les pièces exactes" n'est pas très satisfaisante".

« Le droit d'auteur ne couvre pas seulement le copier-coller ; couvre les œuvres dérivées. GitHub Copilot a été construit sur un code open source et la somme totale de tout ce que vous savez est tirée de ce code. Il n'y a pas d'interprétation possible du terme "dérivé" qui n'inclue pas cela", a-t-il écrit. « L'ancienne génération d'IA a été formée aux textes et photos publics, sur lesquels il est plus difficile de revendiquer des droits d'auteur, mais celui-ci est tiré de grandes œuvres avec des licences très explicites testées par les tribunaux, j'attends donc avec impatience l'inévitable/collectif. / des actions massives à ce sujet ».

Enfin, il faut attendre les actions que GitHub va entreprendre pour modifier la façon dont Copilot est formé, car au final, tôt ou tard, la façon dont il génère le code peut mettre plus d'un développeur en difficulté.


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont marqués avec *

*

*

  1. Responsable des données: Miguel Ángel Gatón
  2. Finalité des données: Contrôle du SPAM, gestion des commentaires.
  3. Légitimation: votre consentement
  4. Communication des données: Les données ne seront pas communiquées à des tiers sauf obligation légale.
  5. Stockage des données: base de données hébergée par Occentus Networks (EU)
  6. Droits: à tout moment, vous pouvez limiter, récupérer et supprimer vos informations.