OpenAI, o laboratório com sede em San Francisco, Califórnia, que desenvolve tecnologias de inteligência artificial que incluem grandes modelos de linguagem, anunciou a capacidade de criar versões personalizadas do GPT-3, um modelo capaz de gerar código do tipo humano a partir de texto e fala.
Com isso de agora em diante os desenvolvedores podem usar o ajuste fino para criar modelos GPT-3 adaptado ao conteúdo específico de seus aplicativos e serviços, resultando em resultados de maior qualidade para todas as tarefas e cargas de trabalho, dependendo da empresa.
Para quem não conhece GPT-3, você deve saber que este é um modelo de linguagem autoregressiva que usa aprendizagem profunda para produzir textos semelhantes aos humanos.
Este é o modelo de predição de linguagem da série GPT-n de terceira geração criada pela OpenAI, um laboratório de pesquisa de inteligência artificial com sede em San Francisco composto pela empresa com fins lucrativos OpenAI LP e sua empresa controladora, a empresa sem fins lucrativos OpenAI Inc.
De qualquer mensagem de texto, como uma frase, o GPT-3 retorna um texto suplementar em linguagem natural.
Desenvolvedores Eles podem 'programar' o GPT-3 mostrando apenas alguns exemplos ou 'prompts'.
"Projetamos a API para ser fácil de usar por todos e flexível o suficiente para tornar as equipes de aprendizado de máquina mais produtivas", disse a OpenAI no final de março.
Neste momento, mais de 300 aplicativos estão usando GPT-3 em várias categorias e setores, de produtividade e educação até mesmo criatividade e jogos.
La nova capacidade de refinamento na configuração do GPT-3 permite que os clientes treinem o GPT-3 para reconhecer um padrão específico para cargas de trabalho como a geração de conteúdo, classificação e síntese de texto dentro dos limites de uma determinada área.
O provedor viável usa GPT-3 para ajudar as empresas a alavancar o feedback do cliente. Usando dados não estruturados, o sistema pode produzir relatórios que resumem o feedback e as interações do cliente. Personalizando o GPT-3, a Viable teria sido capaz de aumentar a precisão de seus relatórios de 66% para 90%.
O mesmo vale para o Keeper Tax, uma ferramenta que simplifica a contabilidade do trabalho autônomo ao classificar e extrair automaticamente os dados de carga útil para relatórios fiscais de um banco ou conta de pagamento. Keeper Tax usa GPT-3 para interpretar dados de extrato bancário para encontrar despesas potencialmente dedutíveis de impostos. A empresa continua a refinar o GPT-3 com novos dados a cada semana com base no desempenho do mundo real de seu produto, focando em exemplos onde o modelo caiu abaixo de um determinado limite de desempenho.
Os os desenvolvedores adicionam cerca de 500 novas amostras semanais para refinar o modelo. Keeper Tax diz que o processo de ajuste produz uma melhoria de 1% a cada semana.
«Uma coisa sobre a qual temos sido muito cuidadosos e insistimos em nosso desenvolvimento dessa API é torná-la acessível a desenvolvedores que não necessariamente têm experiência em aprendizado de máquina ”, disse Rachel Lim, membro da equipe técnica da OpenAI. “A forma como isso se manifesta é que você pode personalizar um modelo GPT-3 usando uma invocação de linha de comando. [Esperamos] que, por causa de sua acessibilidade, possamos alcançar um conjunto mais diversificado de usuários que podem trazer seus mais diversos conjuntos de problemas para a tecnologia. "
Lim afirma que os recursos de refinamento do GPT-3 também podem levar à redução de custos, pois os clientes podem esperar uma frequência maior de resultados de melhor qualidade de modelos precisamente ajustados em comparação com um modelo GPT-3 padrão. (OpenAI cobra para acesso à API com base no número de tokens, ou palavras, que os modelos geram.)
Enquanto o OpenAI tem um prêmio em modelos refinados, Lim diz que a maioria dos modelos refinados requerem prompts mais curtos com menos tokens, o que também pode economizar dinheiro.
A API GPT-3 está disponível ao público desde 2020. Um ano antes de seu lançamento, seus projetistas haviam decidido não divulgar o trabalho de desenvolvimento da versão anterior, GPT-2, considerando que este sistema dopado com aprendizado de máquina poderia resultar em ser perigoso se cair nas mãos de pessoas mal-intencionadas.