O Google DeepMind divulgou oficialmente o Gemma 4 a 6 de Abril, que é a quarta geração dos modelos com pesos abertos da série Gemma. Foram lançadas quatro versões, com licença alterada para Apache 2.0 e com nova compatibilidade nativa com entradas multimodais e fluxos de trabalho de agentes.
Quatro especificações: do dispositivo móvel ao servidor, cobrindo tudo
O modelo denso de 31B ficou em terceiro lugar entre os modelos de código aberto do ranking de textos da Arena AI; o modelo de especialistas mistos de 26B ficou em sexto. A Google afirma que, nos testes de referência do Arena AI, os dois grandes modelos mantêm vantagens face a outros modelos com até 20 vezes mais parâmetros.
Capacidades principais: multimodalidade, áudio e 140 línguas
As quatro versões suportam nativamente entradas multimodais de vídeo e imagem, cobrindo OCR e compreensão de tabelas. As versões para dispositivos de borda (E2B, E4B) suportam ainda entradas de áudio adicionais, podendo ser usadas em cenários de reconhecimento de voz.
Todos os modelos suportam chamadas de funções (function calling), saída JSON estruturada e instruções de sistema nativas para construir fluxos de trabalho de agentes. O conjunto de dados de treino abrange mais de 140 línguas.
A licença passa de personalizada para Apache 2.0, mais favorável para uso comercial
A licença personalizada usada no passado pela série Gemma impunha limitações à modificação e à republicação. O Gemma 4 passa a adotar a licença Apache 2.0, padrão da indústria, permitindo uso comercial, modificação e republicação sem necessidade de assinar um acordo adicional com a Google. A Google afirma que esta medida torna o Gemma 4 mais adequado para aplicações empresariais e de desenvolvimento.
As quatro versões de modelos já estão totalmente disponíveis para uso. A Google ainda não divulgou uma calendarização para integrar os modelos de borda no Android ou em produtos de hardware de consumo.
Este artigo Google lança o Gemma 4: quatro especificações, licença Apache 2.0, do telemóvel ao servidor, cobrindo tudo apareceu primeiro em Rede de Notícias ABMedia.