OpenAI ha cancelado los planes para lanzar su chatbot erótico previamente anunciado, según un informe, aparentemente retirándose de una expansión controvertida de ChatGPT que habría permitido a usuarios adultos generar contenido sexual. La reversión, reportada por primera vez por el Financial Times el jueves, sigue a preocupaciones internas sobre el impacto social de la inteligencia artificial sexualizada. En enero, miembros del Consejo de Expertos en Bienestar y IA de OpenAI advirtieron que las funciones de chat erótico podrían fomentar una dependencia emocional poco saludable entre los usuarios y arriesgarse a convertir el chatbot en lo que un miembro describió como un “coach de suicidio sexy”. OpenAI rechazó la solicitud de Decrypt para comentar sobre el estado del modo erótico, y la empresa aún no ha publicado nada sobre su destino.
La decisión de cancelar lo que supuestamente se llamaba “modo Citron” llega dos días después de que OpenAI cancelara su modelo de texto a video Sora, en un movimiento para centrarse en el desarrollo de una plataforma de IA unificada en lugar de un conjunto de herramientas especializadas. Este movimiento marca un cambio respecto a la dirección delineada por el CEO Sam Altman en octubre. En ese momento, Altman dijo que OpenAI planeaba permitir que adultos verificados accedieran a contenido romántico y erótico una vez que se implementara un sistema robusto de verificación de edad. Altman describió la idea como parte de un esfuerzo más amplio para tratar a los usuarios adultos con mayor autonomía, manteniendo salvaguardas para los menores. Sin embargo, para diciembre, la línea de tiempo se retrasó hasta 2026, ya que la compañía continuaba perfeccionando su tecnología de estimación de edad.
Aunque OpenAI podría estar saliendo del negocio de chatbots para adultos antes de haber entrado realmente en él, los modelos de IA no necesitan necesariamente un “modo erótico” para que los usuarios puedan establecer conexiones con ellos. Cuando OpenAI descontinuó GPT-4o el verano pasado, los usuarios inundaron las redes sociales con llamadas para restaurar el modelo después de decir que habían formado relaciones personales y emocionales con el chatbot, reflejando un debate más amplio sobre los chatbots eróticos y cómo interactúan las personas con la IA. En junio, una investigación publicada por investigadores de la Universidad Waseda en Tokio indicó que el 75% de los participantes recurrían a sistemas de IA para recibir consejos emocionales. Al mismo tiempo, los desarrolladores de IA enfrentan un escrutinio creciente, ya que demandas legales prueban si los sistemas de IA conversacional son responsables de reforzar creencias delirantes o comportamientos dañinos entre usuarios vulnerables.