OpenAI maakt het nu mogelijk om het GPT-3 tekstgeneratiesysteem aan te passen

OpenAI, het in San Francisco, Californië gevestigde laboratorium dat kunstmatige-intelligentietechnologieën ontwikkelt, waaronder grote taalmodellen, heeft de mogelijkheid aangekondigd om aangepaste versies van GPT-3 te maken, een model dat menselijke code kan genereren uit tekst en spraak.

Vanaf nu mee ontwikkelaars kunnen fijnafstemming gebruiken om GPT-3-modellen te maken afgestemd op de specifieke inhoud van uw applicaties en diensten, wat resulteert in hogere kwaliteit resultaten voor alle taken en workloads, afhankelijk van het bedrijf.

Voor degenen die niet bekend zijn met GPT-3, moet u weten dat dit: is een autoregressief taalmodel dat gebruikmaakt van deep learning om mensachtige teksten te produceren.

Dit is de taalvoorspellingsmodel van de derde generatie GPT-n-serie gemaakt door OpenAI, een in San Francisco gevestigd onderzoekslaboratorium voor kunstmatige intelligentie dat bestaat uit het winstgevende bedrijf OpenAI LP en het moederbedrijf, het non-profitbedrijf OpenAI Inc.

Van elk sms-bericht, zoals een zin, retourneert GPT-3 aanvullende tekst in natuurlijke taal.

Ontwikkelaars Ze kunnen GPT-3 'programmeren' door u slechts een paar voorbeelden of 'prompts' te laten zien.

"We hebben de API zo ontworpen dat deze voor iedereen gemakkelijk te gebruiken en flexibel genoeg is om machine learning-teams productiever te maken", zei OpenAI eind maart.

Op dit moment meer dan 300 toepassingen gebruiken GPT-3 in verschillende categorieën en industrieën, van productiviteit en onderwijs zelfs creativiteit en games.

La nieuwe verfijningscapaciteit in de GPT-3-instelling kunnen klanten GPT-3 trainen een specifiek patroon voor workloads herkennen zoals het genereren van inhoud, classificatie en synthese van tekst binnen de grenzen van een bepaald gebied.

Een levensvatbare provider gebruikt GPT-3 om bedrijven te helpen feedback van klanten te benutten. Met behulp van ongestructureerde gegevens kan het systeem rapporten produceren die feedback en interacties van klanten samenvatten. Door GPT-3 aan te passen, had Viable de nauwkeurigheid van zijn rapporten kunnen verhogen van 66% naar 90%.

Hetzelfde geldt voor Keeper Tax, een tool die de boekhouding van zelfstandigen vereenvoudigt door automatisch payloadgegevens te classificeren en te extraheren voor belastingrapporten, van een bank- of betaalrekening. Keeper Tax gebruikt GPT-3 om bankafschriftgegevens te interpreteren om mogelijk fiscaal aftrekbare uitgaven te vinden. Het bedrijf blijft GPT-3 elke week verfijnen met nieuwe gegevens op basis van de werkelijke prestaties van zijn product, waarbij de nadruk ligt op voorbeelden waarbij het model onder een bepaalde prestatiedrempel is gedaald.

De ontwikkelaars voegen wekelijks ongeveer 500 nieuwe voorbeelden toe om het model te verfijnen. Keeper Tax zegt dat het afstemmingsproces van week tot week een verbetering van 1% oplevert.

«Een ding waar we heel voorzichtig mee zijn geweest en waarop we aandringen bij de ontwikkeling van deze API, is om deze toegankelijk te maken voor ontwikkelaars die niet per se een achtergrond in machine learning hebben”, zegt Rachel Lim, technisch staflid van OpenAI. "De manier waarop het uitkomt, is dat je een GPT-3-sjabloon kunt aanpassen met behulp van een opdrachtregelaanroep. [We hopen] dat we vanwege de toegankelijkheid een meer diverse groep gebruikers kunnen bereiken die hun meest uiteenlopende problemen naar technologie kunnen brengen."

Lim stelt dat de verfijningsmogelijkheden van de GPT-3 ook kunnen leiden tot kostenbesparingen, aangezien klanten een hogere frequentie van resultaten van betere kwaliteit kunnen verwachten van nauwkeurig aangepaste modellen in vergelijking met een standaard GPT-3-model (OpenAI rekent kosten voor API-toegang op basis van de aantal tokens, of woorden, dat de modellen genereren.)

Hoewel OpenAI een premie heeft op verfijnde modellen, zegt Lim dat de meeste verfijnde modellen kortere prompts met minder tokens vereisen, wat ook geld kan besparen.

De GPT-3 API is sinds 2020 voor het publiek beschikbaar. Een jaar voor de lancering hadden de ontwerpers besloten het ontwikkelingswerk van de vorige versie, GPT-2, niet openbaar te maken, aangezien dit met machine learning gedoteerde systeem zou kunnen blijken gevaarlijk zijn als het in handen valt van kwaadwillenden.


Laat je reactie achter

Uw e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd met *

*

*

  1. Verantwoordelijk voor de gegevens: Miguel Ángel Gatón
  2. Doel van de gegevens: Controle SPAM, commentaarbeheer.
  3. Legitimatie: uw toestemming
  4. Mededeling van de gegevens: De gegevens worden niet aan derden meegedeeld, behalve op grond van wettelijke verplichting.
  5. Gegevensopslag: database gehost door Occentus Networks (EU)
  6. Rechten: u kunt uw gegevens op elk moment beperken, herstellen en verwijderen.