OpenAI umożliwia teraz dostosowanie systemu generowania tekstu GPT-3

OpenAI, laboratorium z siedzibą w San Francisco w Kalifornii, które opracowuje technologie sztucznej inteligencji obejmujące duże modele językowe, ogłosił możliwość tworzenia niestandardowych wersji GPT-3, model zdolny do generowania kodu ludzkiego z tekstu i mowy.

Z tym od teraz programiści mogą używać precyzyjnego dostrajania do tworzenia modeli GPT-3 dostosowane do konkretnej zawartości Twoich aplikacji i usług, co skutkuje wyższą jakością wyników dla wszystkich zadań i obciążeń, w zależności od firmy.

Dla tych, którzy nie są zaznajomieni z GPT-3, powinniście wiedzieć, że to to autoregresyjny model języka, który wykorzystuje głębokie uczenie do tworzenia tekstów podobnych do ludzi.

To model przewidywania języka trzeciej generacji serii GPT-n stworzonej przez OpenAI, laboratorium badawcze sztucznej inteligencji z siedzibą w San Francisco, składające się z firmy OpenAI LP i jej spółki macierzystej, firmy non-profit OpenAI Inc.

Z dowolnej wiadomości tekstowej, takiej jak zdanie, GPT-3 zwraca tekst uzupełniający w języku naturalnym.

Deweloperzy Mogą „zaprogramować” GPT-3, pokazując tylko kilka przykładów lub „podpowiedzi”.

„Zaprojektowaliśmy interfejs API tak, aby był łatwy w użyciu dla wszystkich i wystarczająco elastyczny, aby zwiększyć produktywność zespołów zajmujących się uczeniem maszynowym” — powiedział OpenAI pod koniec marca.

W tej chwili ponad 300 aplikacji korzystają z GPT-3 w różnych kategoriach i branżach, od produktywności po edukację nawet kreatywność i gry.

La nowa zdolność rafinacji w ustawieniu GPT-3 pozwala klientom trenować GPT-3 rozpoznać określony wzorzec obciążeń takie jak generowanie treści, klasyfikacja i synteza tekstu w ramach określonego obszaru.

Realny dostawca korzysta z GPT-3, aby pomóc firmom wykorzystać opinie klientów. Korzystając z danych nieustrukturyzowanych, system może generować raporty podsumowujące opinie i interakcje klientów. Dostosowując GPT-3, firma Viable byłaby w stanie zwiększyć dokładność swoich raportów z 66% do 90%.

To samo dotyczy Keeper Tax, narzędzia, które upraszcza księgowanie samozatrudnienia, automatycznie klasyfikując i wyodrębniając dane dotyczące ładunku na potrzeby raportów podatkowych z banku lub rachunku płatniczego. Keeper Tax wykorzystuje GPT-3 do interpretacji danych z wyciągów bankowych w celu znalezienia kosztów potencjalnie podlegających odliczeniu od podatku. Firma kontynuuje udoskonalanie GPT-3 za pomocą nowych danych co tydzień w oparciu o rzeczywistą wydajność swojego produktu, koncentrując się na przykładach, w których model spadł poniżej pewnego progu wydajności.

L programiści dodają około 500 nowych próbek tygodniowo udoskonalić model. Keeper Tax twierdzi, że proces dostrajania daje 1% poprawę z tygodnia na tydzień.

«Jedną z rzeczy, na które bardzo uważaliśmy i nalegaliśmy na rozwój tego interfejsu API, jest udostępnienie go programistom, którzy niekoniecznie mają doświadczenie w uczeniu maszynowym ”- powiedziała Rachel Lim, członek personelu technicznego OpenAI. „Sposób, w jaki się to manifestuje, polega na tym, że możesz dostosować szablon GPT-3 za pomocą wywołania wiersza poleceń. [Mamy nadzieję], że dzięki jego dostępności możemy dotrzeć do bardziej zróżnicowanego zestawu użytkowników, którzy mogą wnieść swój najróżniejszy zestaw problemów do technologii”.

Lim twierdzi, że możliwości udoskonalania GPT-3 mogą również prowadzić do oszczędności, ponieważ klienci mogą oczekiwać wyższej częstotliwości wyników lepszej jakości od precyzyjnie dopasowanych modeli w porównaniu ze standardowym modelem GPT-3 (OpenAI pobiera opłaty za dostęp do API na podstawie liczba tokenów lub słów generowanych przez modele).

Podczas gdy OpenAI ma przewagę w ulepszonych modelach, Lim twierdzi, że większość udoskonalonych modeli wymaga krótszych monitów z mniejszą liczbą tokenów, co może również zaoszczędzić pieniądze.

API GPT-3 jest publicznie dostępne od 2020 roku. Na rok przed jego uruchomieniem jego projektanci postanowili nie upubliczniać prac rozwojowych poprzedniej wersji, GPT-2, biorąc pod uwagę, że ten system domieszkowany uczeniem maszynowym może okazać się być niebezpiecznym, jeśli wpadnie w ręce złośliwych ludzi.