Google retiró su modelo Gemma tras informes de alucinaciones en preguntas fácticas, con la empresa enfatizando que estaba destinado a fines de desarrollo e investigación.
La empresa de tecnología Google anunció la retirada de su modelo de IA Gemma tras informes de respuestas inexactas a preguntas fácticas, aclarando que el modelo fue diseñado exclusivamente para investigación y uso de desarrolladores.
Según la declaración de la empresa, Gemma ya no es accesible a través de AI Studio, aunque sigue estando disponible para los desarrolladores a través de la API. La decisión fue motivada por casos de personas que no son desarrolladores usando Gemma a través de AI Studio para solicitar información fáctica, lo cual no era su función prevista.
Google explicó que Gemma nunca se pensó como una herramienta orientada al consumidor, y la eliminación se hizo para evitar más malentendidos sobre su propósito.
En su aclaración, Google enfatizó que la familia de modelos Gemma fue desarrollada como herramientas de código abierto para apoyar a las comunidades de desarrolladores e investigadores, en lugar de para asistencia fáctica o interacción con el consumidor. La compañía señaló que los modelos abiertos como Gemma están destinados a fomentar la experimentación y la innovación, permitiendo a los usuarios explorar el rendimiento del modelo, identificar problemas y proporcionar retroalimentación valiosa.
Google destacó que Gemma ya ha contribuido a los avances científicos, citando el ejemplo del modelo Gemma C2S-Scale 27B, que recientemente desempeñó un papel en la identificación de un nuevo enfoque para el desarrollo de terapias contra el cáncer.
La empresa reconoció los desafíos más amplios que enfrenta la industria de la IA, como las alucinaciones—cuando los modelos generan información falsa o engañosa—y la adulación—cuando producen respuestas agradables pero inexactas.
Estos problemas son particularmente comunes entre modelos abiertos más pequeños como Gemma. Google reafirmó su compromiso de reducir las alucinaciones y mejorar continuamente la fiabilidad y el rendimiento de sus sistemas de IA.
Google Implementa una Estrategia Multicapa para Reducir las Alucinaciones de la IA
La empresa emplea un enfoque en múltiples capas para minimizar las alucinaciones en sus grandes modelos de lenguaje (LLMs), combinando la fundamentación de datos, un entrenamiento riguroso y diseño de modelos, un prompting estructurado y reglas contextuales, y mecanismos continuos de supervisión y retroalimentación humana. A pesar de estas medidas, la empresa reconoce que las alucinaciones no pueden eliminarse por completo.
La limitación subyacente proviene de cómo operan los LLMs. En lugar de poseer una comprensión de la verdad, los modelos funcionan prediciendo secuencias de palabras probables basadas en patrones identificados durante el entrenamiento. Cuando el modelo carece de una base suficiente o se encuentra con datos externos incompletos o poco fiables, puede generar respuestas que suenan creíbles pero son factualmente incorrectas.
Además, Google señala que existen compromisos inherentes en la optimización del rendimiento del modelo. Aumentar la cautela y restringir la salida puede ayudar a limitar las alucinaciones, pero a menudo viene a expensas de la flexibilidad, la eficiencia y la utilidad en ciertas tareas. Como resultado, persisten inexactitudes ocasionales, particularmente en áreas emergentes, especializadas o subrepresentadas donde la cobertura de datos es limitada.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Google retira Gemma AI de AI Studio, reitera el propósito exclusivo para desarrolladores ante preocupaciones sobre la precisión
En resumen
Google retiró su modelo Gemma tras informes de alucinaciones en preguntas fácticas, con la empresa enfatizando que estaba destinado a fines de desarrollo e investigación.
La empresa de tecnología Google anunció la retirada de su modelo de IA Gemma tras informes de respuestas inexactas a preguntas fácticas, aclarando que el modelo fue diseñado exclusivamente para investigación y uso de desarrolladores.
Según la declaración de la empresa, Gemma ya no es accesible a través de AI Studio, aunque sigue estando disponible para los desarrolladores a través de la API. La decisión fue motivada por casos de personas que no son desarrolladores usando Gemma a través de AI Studio para solicitar información fáctica, lo cual no era su función prevista.
Google explicó que Gemma nunca se pensó como una herramienta orientada al consumidor, y la eliminación se hizo para evitar más malentendidos sobre su propósito.
En su aclaración, Google enfatizó que la familia de modelos Gemma fue desarrollada como herramientas de código abierto para apoyar a las comunidades de desarrolladores e investigadores, en lugar de para asistencia fáctica o interacción con el consumidor. La compañía señaló que los modelos abiertos como Gemma están destinados a fomentar la experimentación y la innovación, permitiendo a los usuarios explorar el rendimiento del modelo, identificar problemas y proporcionar retroalimentación valiosa.
Google destacó que Gemma ya ha contribuido a los avances científicos, citando el ejemplo del modelo Gemma C2S-Scale 27B, que recientemente desempeñó un papel en la identificación de un nuevo enfoque para el desarrollo de terapias contra el cáncer.
La empresa reconoció los desafíos más amplios que enfrenta la industria de la IA, como las alucinaciones—cuando los modelos generan información falsa o engañosa—y la adulación—cuando producen respuestas agradables pero inexactas.
Estos problemas son particularmente comunes entre modelos abiertos más pequeños como Gemma. Google reafirmó su compromiso de reducir las alucinaciones y mejorar continuamente la fiabilidad y el rendimiento de sus sistemas de IA.
Google Implementa una Estrategia Multicapa para Reducir las Alucinaciones de la IA
La empresa emplea un enfoque en múltiples capas para minimizar las alucinaciones en sus grandes modelos de lenguaje (LLMs), combinando la fundamentación de datos, un entrenamiento riguroso y diseño de modelos, un prompting estructurado y reglas contextuales, y mecanismos continuos de supervisión y retroalimentación humana. A pesar de estas medidas, la empresa reconoce que las alucinaciones no pueden eliminarse por completo.
La limitación subyacente proviene de cómo operan los LLMs. En lugar de poseer una comprensión de la verdad, los modelos funcionan prediciendo secuencias de palabras probables basadas en patrones identificados durante el entrenamiento. Cuando el modelo carece de una base suficiente o se encuentra con datos externos incompletos o poco fiables, puede generar respuestas que suenan creíbles pero son factualmente incorrectas.
Además, Google señala que existen compromisos inherentes en la optimización del rendimiento del modelo. Aumentar la cautela y restringir la salida puede ayudar a limitar las alucinaciones, pero a menudo viene a expensas de la flexibilidad, la eficiencia y la utilidad en ciertas tareas. Como resultado, persisten inexactitudes ocasionales, particularmente en áreas emergentes, especializadas o subrepresentadas donde la cobertura de datos es limitada.