PolyCoder, en öppen källkod som genererar AI som kan överträffa Codex 

Författare: @ Laurent - Fotolia.com

För närvarande, Vi har börjat se en ökning av de olika lösningarna som börjar erbjuda i förhållande till kodgenerering med hjälp av artificiell intelligens (AI) och är att området för naturlig språkbehandling (NLP) har banat väg för en rad AI-kodgeneratorer i olika programmeringsspråk.

Varav vi kan lyfta fram till exempel GitHub Copilot, AlphaCode och Codex och till vilken vi nu kan lägga till en ny lösning från handen av forskare vid Carnegie Mellon University som nyligen introducerade "PolyCoder", en kodgenerator baserad på OpenAI GPT-2-språkmodellen som tränades på en 249 GB koddatabas i 12 programmeringsspråk.

Om PolyCoder

Författarna till PolyCoder hävdar att det är det kan skriva C mer exakt än någon känd modell, inklusive Codex.

Koden som genererar AI, kan skriva källkod på olika programmeringsspråk från ett tillkännagivande lovar det att sänka kostnaderna för mjukvaruutveckling samtidigt som utvecklarna kan fokusera på mindre repetitiva, kreativa uppgifter.

PolyCoder tränades med hjälp av data från olika GitHub-förråd, som spänner över 12 populära programmeringsspråk: C, C#, C++, Go, Java, JavaScript, PHP, Python, Ruby, Rust, Scala och TypeScript.

Den råa datamängden uppgick till 631 GB data och 38,9 miljoner filer. Teamet sa det valde att träna PolyCoder med GPT-2 på grund av budgetbegränsningar. PolyCoder finns som öppen källkod, och forskarna hoppas att det kan demokratisera forskningen inom området för AI-kodgenerering, som hittills har dominerats av välfinansierade företag.

Forskarna tror att PolyCoder det fungerar bättre än andra modeller för att generera kod i C-språket. Codex har dock alltid överträffat det på andra språk. "PolyCoder överträffar betydligt Codex och alla andra modeller i C-språket.

”När Copilot lämnade GitHub förra sommaren blev det klart att dessa mycket stora språkkodmodeller kan vara mycket användbara för att hjälpa utvecklare och öka deras produktivitet. Men inga modeller ens i närheten av den skalan var offentligt tillgängliga”, sa forskarna till VentureBeat via e-post. "Så [PolyCoder] började med att Vincent försökte se vad som var den största modellen som kunde tränas på vår labbserver, som slutade med 2700 miljarder parametrar ... och den modellen var en liga före andra kodorienterade modeller som var allmänt tillgängliga vid den tiden."

Genom att endast jämföra modellerna med öppen källkod, PolyCoder överträffar GPT-Neo 2.7B-modellen i liknande storlek i C, JavaScript, Rust, Scala och TypeScript." punkt. "På de andra 11 språken är alla andra modeller med öppen källkod, inklusive vår, betydligt värre (större förbryllande) än Codex", tillade CMU-forskarna.

Det är med detta som PolyCoder är positionerat som en mycket intressant lösning, eftersom medan forskningslaboratorier som Elon Musks OpenAI och Alphabets DeepMind har utvecklat kraftfull kodgenererande AI, är många av de mest framgångsrika systemen inte tillgängliga i öppen källkod. Låginkomstföretag har inte tillgång till det och denna situation begränsar deras forskning inom området.

Till exempel har träningsdata från OpenAI Codex, som driver GitHubs Copilot-funktion, inte offentliggjorts, vilket hindrar forskare från att förfina AI-modellen eller studera vissa aspekter av den, såsom interoperabilitet.

"Stora teknikföretag släpper inte sina modeller offentligt, vilket verkligen håller tillbaka vetenskaplig forskning och demokratisering av så stora språkkodmodeller," sa forskarna. "I viss mån hoppas vi att våra ansträngningar med öppen källkod kommer att övertyga andra att göra detsamma. Men den stora bilden är att samhället ska kunna träna dessa modeller själva. Vår modell har flyttat gränsen för vad du kan träna på en enda server – allt större kräver en pool av servrar, vilket dramatiskt ökar kostnaden.”

Slutligen om du är intresserad av att veta mer om detkan du kontrollera detaljerna i följande länk.


Lämna din kommentar

Din e-postadress kommer inte att publiceras. Obligatoriska fält är markerade med *

*

*

  1. Ansvarig för uppgifterna: Miguel Ángel Gatón
  2. Syftet med uppgifterna: Kontrollera skräppost, kommentarhantering.
  3. Legitimering: Ditt samtycke
  4. Kommunikation av uppgifterna: Uppgifterna kommer inte att kommuniceras till tredje part förutom enligt laglig skyldighet.
  5. Datalagring: databas värd för Occentus Networks (EU)
  6. Rättigheter: När som helst kan du begränsa, återställa och radera din information.