Ο Copilot, βοηθός AI του GitHub δέχθηκε έντονη κριτική από την κοινότητα ανοιχτού κώδικα

Μερικές μέρες πριν Μοιραζόμαστε εδώ στο blog τα νέα του Copilot, που είναι ένας βοηθός τεχνητής νοημοσύνης για τη σύνταξη κώδικα GitHub και τον οποίο βασικά παρουσιάζω ως εργαλείο βοήθειας για προγραμματιστές.

Παρόλο που ο Copilot διαφέρει από τα συστήματα ολοκλήρωσης κώδικα παραδοσιακό για τη δυνατότητα σχηματισμού πολύπλοκων μπλοκ κώδικα, έως και έτοιμες προς χρήση συναρτήσεις που λαμβάνουν υπόψη το τρέχον πλαίσιο. Οπως και Το Copilot είναι μια λειτουργία AI που έχει μάθει μέσω πολλών εκατομμυρίων γραμμών κώδικα και αναγνωρίζει τι σχεδιάζετε με βάση τον ορισμό μιας συνάρτησης κ.λπ.

Ενώ Το Copilot αντιπροσωπεύει μια τεράστια εξοικονόμηση χρόνου λόγω της εκμάθησης εκατομμυρίων γραμμών κώδικα, κάτι που έχει αρχίσει να δημιουργεί φόβους ότι το εργαλείο θα μπορούσε να παρακάμψει τις απαιτήσεις άδειας χρήσης ανοιχτού κώδικα και να παραβιάσει τους νόμους περί πνευματικών δικαιωμάτων.

Armin Ronacher, ένας διακεκριμένος προγραμματιστής στην κοινότητα ανοιχτού κώδικα, είναι ένας από τους προγραμματιστές που ήταν απογοητευμένος με τον τρόπο που κατασκευάστηκε το Copilot, αφού αναφέρει ότι πειραματίστηκε με το εργαλείο και δημοσίευσε ένα στιγμιότυπο στο Twitter στο οποίο αναφέρει ότι του φαινόταν παράξενο που ο Copilot, ένα εργαλείο τεχνητής νοημοσύνης που διατίθεται στο εμπόριο, μπορεί να παράγει κώδικα που προστατεύεται από πνευματικά δικαιώματα.

Πριν από αυτό, ορισμένοι προγραμματιστές άρχισαν να ανησυχούν για τη χρήση δημόσιου κώδικα για την εκπαίδευση της τεχνητής νοημοσύνης του εργαλείου. Μια ανησυχία είναι ότι εάν το Copilot αναπαράγει αρκετά μεγάλα τμήματα υπάρχοντος κώδικα, θα μπορούσε να παραβιάσει τα πνευματικά δικαιώματα ή να ξεπλύνει κώδικα ανοιχτού κώδικα για εμπορικές χρήσεις χωρίς την κατάλληλη άδεια (βασικά ένα δίκοπο μαχαίρι).

Επιπλέον, αποδείχθηκε ότι το εργαλείο μπορεί επίσης να περιλαμβάνει προσωπικές πληροφορίες που δημοσίευσαν οι προγραμματιστές και σε μία περίπτωση, αναπαρήγαγε τον ευρέως αναφερόμενο κώδικα από το παιχνίδι PC Quake III Arena του 1999, συμπεριλαμβανομένων των σχολίων από τον προγραμματιστή John Carmack.

Ο Cole Garry, εκπρόσωπος του Github, αρνήθηκε να σχολιάσει, παραπέμποντας στις υφιστάμενες Συχνές ερωτήσεις της εταιρείας στον ιστότοπο του Copilot, ο οποίος αναγνωρίζει ότι το εργαλείο μπορεί να παράγει αποσπάσματα κειμένου από τα δεδομένα εκπαίδευσης σας.

Αυτό συμβαίνει περίπου στο 0.1% των περιπτώσεων, σύμφωνα με το GitHub, συνήθως όταν οι χρήστες δεν παρέχουν αρκετό πλαίσιο γύρω από τα αιτήματά τους ή όταν το πρόβλημα έχει μια ασήμαντη λύση.

«Βρισκόμαστε στη διαδικασία εφαρμογής ενός συστήματος παρακολούθησης πηγών για να συλλάβουμε τις σπάνιες περιπτώσεις επανάληψης κώδικα σε όλα τα δεδομένα εκπαίδευσης, για να σας βοηθήσουμε να λάβετε καλές αποφάσεις σε πραγματικό χρόνο. Όσον αφορά τις προτάσεις του GitHub Copilot», αναφέρει το FAQ της εταιρείας.

Εν τω μεταξύ, ο Διευθύνων Σύμβουλος του GitHub, Nat Friedman, υποστήριξε ότι η εκπαίδευση συστημάτων μηχανικής μάθησης σε δημόσια δεδομένα είναι ορθή χρήση, ενώ αναγνώρισε ότι «η πνευματική ιδιοκτησία και η τεχνητή νοημοσύνη θα αποτελέσουν αντικείμενο μιας ενδιαφέρουσας πολιτικής συζήτησης» στην οποία η εταιρεία θα συμμετάσχει ενεργά.

Σε ένα από τα tweet του έγραψε:

«Το GitHub Copilot, κατά την παραδοχή του, εκπαιδεύτηκε σε βουνά κώδικα GPL, οπότε δεν είμαι σίγουρος πώς αυτό δεν είναι μια μορφή ξεπλύματος βρώμικου χρήματος. Ανοιχτός κώδικας σε εμπορικά έργα. Η φράση «συνήθως δεν παίζει τα ακριβή μέρη» δεν είναι πολύ ικανοποιητική».

«Τα πνευματικά δικαιώματα δεν καλύπτουν μόνο την αντιγραφή και επικόλληση. καλύπτει παράγωγα έργα. Το GitHub Copilot δημιουργήθηκε με ανοιχτό κώδικα και το άθροισμα όλων όσων γνωρίζετε προέρχεται από αυτόν τον κώδικα. Δεν υπάρχει πιθανή ερμηνεία του όρου «παράγωγο» που να μην το περιλαμβάνει», έγραψε. «Η παλαιότερη γενιά τεχνητής νοημοσύνης έχει εκπαιδευτεί σε δημόσια κείμενα και φωτογραφίες, για τα οποία είναι πιο δύσκολο να διεκδικήσει κανείς πνευματικά δικαιώματα, αλλά αυτό προέρχεται από μεγάλα έργα με πολύ σαφείς άδειες που έχουν δοκιμαστεί από δικαστήρια, οπότε ανυπομονώ για την αναπόφευκτη/συλλογική/μαζική δράση για αυτό».

Τέλος, είναι καιρός να περιμένουμε τις ενέργειες που θα κάνει το GitHub για να τροποποιήσει τον τρόπο με τον οποίο εκπαιδεύεται το Copilot, αφού τελικά αργά ή γρήγορα ο τρόπος με τον οποίο δημιουργεί τον κώδικα μπορεί να βάλει σε μπελάδες περισσότερους από έναν προγραμματιστές.


Αφήστε το σχόλιό σας

Η διεύθυνση email σας δεν θα δημοσιευθεί. Τα υποχρεωτικά πεδία σημειώνονται με *

*

*

  1. Υπεύθυνος για τα δεδομένα: Miguel Ángel Gatón
  2. Σκοπός των δεδομένων: Έλεγχος SPAM, διαχείριση σχολίων.
  3. Νομιμοποίηση: Η συγκατάθεσή σας
  4. Κοινοποίηση των δεδομένων: Τα δεδομένα δεν θα κοινοποιούνται σε τρίτους, εκτός από νομική υποχρέωση.
  5. Αποθήκευση δεδομένων: Βάση δεδομένων που φιλοξενείται από τα δίκτυα Occentus (ΕΕ)
  6. Δικαιώματα: Ανά πάσα στιγμή μπορείτε να περιορίσετε, να ανακτήσετε και να διαγράψετε τις πληροφορίες σας.