PolyCoder, un codice open source che genera intelligenza artificiale che potrebbe superare Codex 

Autore: @Laurent - Fotolia.com

Attualmente, Abbiamo iniziato a vedere un aumento le diverse soluzioni che stanno iniziando ad offrire in relazione al generazione di codice utilizzando l'intelligenza artificiale (AI) ed è che il campo dell'elaborazione del linguaggio naturale (NLP) ha aperto la strada a una serie di IA che generano codice in vari linguaggi di programmazione.

Di cui possiamo evidenziare ad esempio GitHub Copilot, AlphaCode e Codex e a cui ora possiamo aggiungere una nuova soluzione dalla mano del ricercatori della Carnegie Mellon University che recentemente introdotto "PolyCoder", un generatore di codice basato sul modello di linguaggio GPT-2 di OpenAI che è stato addestrato su un database di codice da 249 GB in 12 linguaggi di programmazione.

Informazioni su PolyCoder

Gli autori di PolyCoder affermano che lo è in grado di scrivere C in modo più accurato di qualsiasi modello noto, incluso Codex.

Il codice che genera l'IA, può scrivere codice sorgente in diversi linguaggi di programmazione Fin dall'inizio, promette di ridurre i costi di sviluppo del software consentendo agli sviluppatori di concentrarsi su attività creative meno ripetitive.

PolyCoder era alimentato dai dati di vari repository GitHub, che coprivano 12 linguaggi di programmazione popolari: C, C#, C++, Go, Java, JavaScript, PHP, Python, Ruby, Rust, Scala e TypeScript.

Il set di dati non filtrato ammontava a 631 GB di dati e 38,9 milioni di file. Lo ha detto la squadra ha scelto di addestrare PolyCoder con GPT-2 a causa di vincoli di budget. PolyCoder è disponibile come open source e i ricercatori sperano che possa democratizzare la ricerca nel campo della generazione di codice AI, che fino ad ora è stato dominato da aziende ben finanziate.

I ricercatori ritengono che PolyCoder funziona meglio di altri modelli nella generazione di codice nel linguaggio C. Tuttavia, Codex lo ha sempre superato in altre lingue. "PolyCoder supera notevolmente Codex e tutti gli altri modelli in linguaggio C.

"Quando Copilot è uscito su GitHub la scorsa estate, è diventato chiaro che questi modelli di codice linguistico molto grandi possono essere molto utili per aiutare gli sviluppatori e aumentare la loro produttività. Ma nessun modello nemmeno vicino a quella scala era disponibile pubblicamente", hanno detto i ricercatori a VentureBeat via e-mail. "Così [PolyCoder] ha iniziato con Vincent che cercava di capire quale fosse il modello più grande che poteva essere addestrato sul nostro server di laboratorio, che ha finito per essere 2700 miliardi di parametri... e quel modello era un campionato più avanti di altri modelli orientati al codice che avevamo all'epoca erano pubblicamente disponibili.

Quando si confrontano solo i modelli open source, PolyCoder supera il modello GPT-Neo 2.7B di dimensioni simili in C, JavaScript, Rust, Scala e TypeScript." fanno notare "Negli altri 11 linguaggi, tutti gli altri modelli open source, incluso il nostro, sono significativamente peggiori (maggiore perplessità) del Codex", hanno aggiunto i ricercatori della CMU.

Con questo, PolyCoder si posiziona come una soluzione molto interessante, poiché mentre laboratori di ricerca come OpenAI di Elon Musk e DeepMind di Alphabet hanno sviluppato una potente IA per la generazione di codice, molti dei sistemi di maggior successo non sono disponibili in open source. Le aziende a basso reddito non vi hanno accesso e questa situazione limita la loro ricerca sul campo.

Ad esempio, i dati di addestramento del codice OpenAI, che alimenta la funzione Copilot di GitHub, non sono stati resi pubblici, impedendo ai ricercatori di perfezionare il modello AI o studiarne alcuni aspetti, come l'interoperabilità.

"Le grandi aziende tecnologiche non stanno rilasciando pubblicamente i loro modelli, il che sta davvero frenando la ricerca scientifica e la democratizzazione di modelli di codice linguistico così grandi", hanno affermato i ricercatori. “In una certa misura, speriamo che i nostri sforzi nell'open source convincano gli altri a fare lo stesso. Ma il quadro generale è che la comunità dovrebbe essere in grado di formare questi modelli da sola. Il nostro modello ha superato il limite di ciò che è possibile addestrare su un singolo server: qualsiasi cosa più grande richiede un pool di server, il che aumenta notevolmente i costi".

Infine se sei interessato a saperne di più, puoi controllare i dettagli nel file seguente link


Lascia un tuo commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati con *

*

*

  1. Responsabile dei dati: Miguel Ángel Gatón
  2. Scopo dei dati: controllo SPAM, gestione commenti.
  3. Legittimazione: il tuo consenso
  4. Comunicazione dei dati: I dati non saranno oggetto di comunicazione a terzi se non per obbligo di legge.
  5. Archiviazione dati: database ospitato da Occentus Networks (UE)
  6. Diritti: in qualsiasi momento puoi limitare, recuperare ed eliminare le tue informazioni.