Gemma: modelo de IA do Google baseado em Gemini, agora disponível como código aberto

jóia

Gemma, um novo modelo de inteligência artificial de código aberto

Google anunciou, por meio de uma postagem no blog, o lançamento de seu nova família de modelos de IA baseados no chatbot Gemini, «Gemma«. Este é um modelo de aprendizado de máquina construído sobre as tecnologias usadas no Gemini, o modelo de chatbot do Google, e oferece uma gama de variantes que variam de 2 a 7 bilhões de parâmetros, projetados para diferentes aplicações e requisitos de hardware.

Gemma pretende fornecer para desenvolvedores ferramentas avançadas para criar aplicativos de IA de forma consciente y entre las áreas de aplicación que abarcan Gemma, se menciona desde la creación de sistemas de diálogo y asistentes virtuales hasta la generación de texto, respuestas a preguntas en lenguaje natural, resúmenes de contenidos, corrección de textos y apoyo en el aprendizaje de idiomas. Além disso, o modelo permite a manipulação de vários tipos de dados de texto, incluindo poesia, código de programação, reescrita de texto e geração de cartas usando modelos.

E é que Um destaque de Gemma é seu tamanho relativamente pequeno, o que facilita sua implementação em hardware com recursos limitados, como laptops e PCs padrão. Nas comparações realizadas por Huggingface e Google, o modelo Gemma-7B demonstrou desempenho sólido, ficando em segundo lugar depois do modelo LLama 2 70B Chat na comparação de Huggingface. Na comparação do Google, o Gemma-7B está um pouco à frente do LLama 2 7B/13B e do Mistral-7B.

Na parte de ecossistema de ferramentas e estruturas, o novo chatbot de IA oferece integração com um grande número de ferramentas comumente utilizadas por desenvolvedores, pois possui diversos projetos importantes que já integraram suporte para trabalhar com Gemma e dentre os projetos que já possuem suporte, destacam-se: Hugging Face, MaxText, NVIDIA NeMo, TensorRT-LLM, Transformers, Responsible Generative AI Toolkit entre outros.

Além disso, o Google lançou um mecanismo de saída independente chamado gemma.cpp, escrito em C++, especificamente para Gemma, e o suporte para Gemma foi adicionado ao mecanismo llama.cpp. Para otimizar o modelo, os desenvolvedores podem aproveitar a estrutura Keras e back-ends para TensorFlow, JAX e PyTorch.

É importante colocar atenção O modelo Gemma tem tamanho de 8 mil tokens, o que limita a quantidade de informações que ele pode processar e lembrar durante a geração de texto (para comparação, modelos como Gemini e GPT-4 têm tamanhos de contexto de 32 mil tokens e GPT-4 Turbo tem 128 mil). Além disso, o modelo Gemma atualmente oferece suporte apenas ao inglês como idioma.

Para garantir os mais altos padrões de segurança, O Google usou técnicas automatizadas para remover informações pessoais dos dados treinamento de modelos Gemma. Além disso, a aprendizagem por reforço, orientada pelo feedback humano, foi utilizada para refinar as variantes do Gemma adaptadas às instruções, garantindo que aderem a padrões de comportamento responsáveis.

O Google menciona que a natureza em constante evolução da IA ​​levanta considerações importantes sobre segurança e uso ético, uma vez que, nas mãos erradas, a falta de restrições aos modelos abertos de IA pode criar riscos significativos para a sociedade. O Google reconhece esses desafios e adotou uma abordagem abrangente para enfrentá-los por meio de avaliações rigorosas e termos de uso claros. A empresa busca garantir que os modelos abertos de IA sejam usados ​​de forma ética e responsável, ao mesmo tempo que incentiva a inovação e a colaboração na comunidade.

Para os interessados, você deve saber que Gemma está disponível em duas configurações, Gemma 2B e Gemma 7B, este modelo de IA de código aberto oferece variantes pré-treinadas e ajustadas por instruções para operar com eficiência. Além disso, a licença da Gemma permite o uso gratuito em pesquisas, projetos pessoais e comerciais, bem como a criação e distribuição de versões modificadas do modelo.

finalmente se você está interessado em saber mais sobre isso, você pode verificar os detalhes no link a seguir