Google Gemma 4 lançamento oficial: 4 tamanhos pela primeira vez sob licença Apache 2.0, 31B terceiro maior projeto de código aberto global

BlockBeatNews

De acordo com o monitoramento da 1M AI News, a Google lançou oficialmente a família de modelos open source Gemma 4, composta por 4 variantes com tamanhos diferentes, todas sob a licença Apache 2.0. A Google afirma que esta é uma resposta ao feedback da comunidade. A Apache 2.0 significa que os programadores podem usar livremente para fins comerciais, modificar e distribuir, sem restrições adicionais. O cofundador e CEO da Hugging Face, Clément Delangue, descreveu esta iniciativa como «um enorme marco».

Os 4 modelos são orientados para diferentes cenários de hardware:

  1. 31B Dense: a qualidade bruta mais alta, indicada para fine-tuning; pesos não quantizados podem ser executados numa única H100 de 80GB, e a versão quantizada suporta GPU’s para utilizadores comuns
  2. 26B MoE (Mixture of Experts / mistura de especialistas): um total de 26B de parâmetros, mas na inferência apenas são ativados 3,8B; o foco é a baixa latência, adequado para cenários de Agent sensíveis à velocidade
  3. E4B e E2B: modelos de edge para dispositivos móveis e IoT; na inferência, ativam aproximadamente 4B e 2B parâmetros, respetivamente, o suficiente para manter a autonomia do dispositivo; suportam nativamente a entrada de áudio (reconhecimento e compreensão de voz), e podem ser executados completamente offline

No ranking de texto da Arena AI, uma plataforma anónima de avaliação em combate de modelos de grande escala, o 31B ocupa o terceiro lugar entre os modelos open source a nível global e o 26B o sexto; a Google afirma que o seu desempenho «ultrapassa modelos com um tamanho 20 vezes maior». O modelo é construído com base nas mesmas linhas de investigação e tecnologias usadas na Gemini 3.

As capacidades centrais abrangem raciocínio e planeamento de múltiplos passos, chamadas nativas de funções e saídas estruturadas em JSON (para fluxos de trabalho de Agents), geração de código, compreensão de imagem e vídeo (em toda a gama) e treino nativo em mais de 140 línguas. Os modelos de edge suportam janelas de contexto de 128K, enquanto os modelos de grande escala suportam até 256K. O E2B e o E4B, otimizados em conjunto com a equipa Pixel da Google, Qualcomm e MediaTek, podem ser executados em dispositivos como telemóveis, Raspberry Pi, NVIDIA Jetson Orin Nano, entre outros. Os programadores Android podem construir aplicações de Agent através do protótipo AICore Developer Preview, preparando a compatibilidade para a futura Gemini Nano 4.

Em termos de ecossistema, logo no primeiro dia há suporte para frameworks populares como Hugging Face, vLLM, llama.cpp, MLX, Ollama, NVIDIA NIM, LM Studio e Unsloth, e é possível experimentar diretamente no Google AI Studio (31B e 26B) e no AI Edge Gallery (E4B e E2B). Desde o lançamento da primeira geração, a série Gemma já foi descarregada mais de 400 milhões de vezes, com mais de 100 mil variantes derivadas na comunidade.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários