Gemma, um novo modelo de inteligência artificial de código aberto
Google anunciou, por meio de uma postagem no blog, o lançamento de seu nova família de modelos de IA baseados no chatbot Gemini, «Gemma«. Este é um modelo de aprendizado de máquina construído sobre as tecnologias usadas no Gemini, o modelo de chatbot do Google, e oferece uma gama de variantes que variam de 2 a 7 bilhões de parâmetros, projetados para diferentes aplicações e requisitos de hardware.
Gemma pretende fornecer para desenvolvedores ferramentas avançadas para criar aplicativos de IA de forma consciente y entre las áreas de aplicación que abarcan Gemma, se menciona desde la creación de sistemas de diálogo y asistentes virtuales hasta la generación de texto, respuestas a preguntas en lenguaje natural, resúmenes de contenidos, corrección de textos y apoyo en el aprendizaje de idiomas. Além disso, o modelo permite a manipulação de vários tipos de dados de texto, incluindo poesia, código de programação, reescrita de texto e geração de cartas usando modelos.
E é que Um destaque de Gemma é seu tamanho relativamente pequeno, o que facilita sua implementação em hardware com recursos limitados, como laptops e PCs padrão. Nas comparações realizadas por Huggingface e Google, o modelo Gemma-7B demonstrou desempenho sólido, ficando em segundo lugar depois do modelo LLama 2 70B Chat na comparação de Huggingface. Na comparação do Google, o Gemma-7B está um pouco à frente do LLama 2 7B/13B e do Mistral-7B.
Na parte de ecossistema de ferramentas e estruturas, o novo chatbot de IA oferece integração com um grande número de ferramentas comumente utilizadas por desenvolvedores, pois possui diversos projetos importantes que já integraram suporte para trabalhar com Gemma e dentre os projetos que já possuem suporte, destacam-se: Hugging Face, MaxText, NVIDIA NeMo, TensorRT-LLM, Transformers, Responsible Generative AI Toolkit entre outros.
Além disso, o Google lançou um mecanismo de saída independente chamado gemma.cpp, escrito em C++, especificamente para Gemma, e o suporte para Gemma foi adicionado ao mecanismo llama.cpp. Para otimizar o modelo, os desenvolvedores podem aproveitar a estrutura Keras e back-ends para TensorFlow, JAX e PyTorch.
É importante colocar atenção O modelo Gemma tem tamanho de 8 mil tokens, o que limita a quantidade de informações que ele pode processar e lembrar durante a geração de texto (para comparação, modelos como Gemini e GPT-4 têm tamanhos de contexto de 32 mil tokens e GPT-4 Turbo tem 128 mil). Além disso, o modelo Gemma atualmente oferece suporte apenas ao inglês como idioma.
Para garantir os mais altos padrões de segurança, O Google usou técnicas automatizadas para remover informações pessoais dos dados treinamento de modelos Gemma. Além disso, a aprendizagem por reforço, orientada pelo feedback humano, foi utilizada para refinar as variantes do Gemma adaptadas às instruções, garantindo que aderem a padrões de comportamento responsáveis.
O Google menciona que a natureza em constante evolução da IA levanta considerações importantes sobre segurança e uso ético, uma vez que, nas mãos erradas, a falta de restrições aos modelos abertos de IA pode criar riscos significativos para a sociedade. O Google reconhece esses desafios e adotou uma abordagem abrangente para enfrentá-los por meio de avaliações rigorosas e termos de uso claros. A empresa busca garantir que os modelos abertos de IA sejam usados de forma ética e responsável, ao mesmo tempo que incentiva a inovação e a colaboração na comunidade.
Para os interessados, você deve saber que Gemma está disponível em duas configurações, Gemma 2B e Gemma 7B, este modelo de IA de código aberto oferece variantes pré-treinadas e ajustadas por instruções para operar com eficiência. Além disso, a licença da Gemma permite o uso gratuito em pesquisas, projetos pessoais e comerciais, bem como a criação e distribuição de versões modificadas do modelo.
finalmente se você está interessado em saber mais sobre isso, você pode verificar os detalhes no link a seguir