OpenAI hat die Pläne für die Einführung seines zuvor angekündigten erotischen Chatbots offenbar auf Eis gelegt, berichtet eine Quelle. Damit zieht das Unternehmen eine kontroverse Erweiterung von ChatGPT zurück, die es erwachsenen Nutzern ermöglicht hätte, sexuelle Inhalte zu generieren. Die Kehrtwende, die am Donnerstag erstmals von der Financial Times berichtet wurde, folgt internen Bedenken hinsichtlich der gesellschaftlichen Auswirkungen sexualisierter künstlicher Intelligenz. Im Januar warnten Mitglieder des OpenAI-Expertenrats für Wohlbefinden und KI, dass erotische Chat-Funktionen ungesunde emotionale Abhängigkeit bei Nutzern fördern und den Chatbot in einen „sexy Suizid-Coach“ verwandeln könnten, so ein Mitglied. OpenAI lehnte eine Stellungnahme zu Decrypt bezüglich des Status des Erotik-Modus ab, und das Unternehmen hat noch keine Stellungnahme zu seinem Schicksal veröffentlicht.
Die Entscheidung, was angeblich „Citron-Modus“ heißen sollte, abzublasen, fällt zwei Tage nach der Absage des Sora-Text-zu-Video-Modells. Das Unternehmen konzentriert sich nun auf die Entwicklung einer einheitlichen KI-Plattform anstelle einer Sammlung spezialisierter Tools. Diese Entscheidung weicht von der Richtung ab, die CEO Sam Altman noch im Oktober skizziert hatte. Damals sagte Altman, OpenAI plane, verifizierten Erwachsenen den Zugang zu romantischen und erotischen Inhalten zu ermöglichen, sobald ein zuverlässiges Altersverifikationssystem vorhanden sei. Altman beschrieb die Idee als Teil eines umfassenderen Ansatzes, erwachsenen Nutzern mehr Autonomie zu gewähren, während gleichzeitig Schutzmaßnahmen für Minderjährige bestehen bleiben. Bis Dezember wurde der Zeitplan jedoch auf 2026 verschoben, da das Unternehmen seine Altersabschätzungstechnologie weiter verfeinerte.
Obwohl OpenAI möglicherweise vorhat, sich aus dem Geschäft mit Erwachsenen-Chatbots zurückzuziehen, bevor es richtig eingestiegen ist, benötigen KI-Modelle nicht unbedingt einen „erotischen Modus“, damit Nutzer Verbindungen zu ihnen aufbauen können. Als OpenAI im letzten Sommer GPT-4o eingestellt hat, forderten Nutzer in sozialen Medien die Wiederherstellung des Modells, nachdem sie erklärt hatten, persönliche und emotionale Beziehungen zu dem Chatbot aufgebaut zu haben. Dies spiegelt eine breitere Debatte über erotische Chatbots und die Interaktion der Menschen mit KI wider. Im Juni veröffentlichten Forscher der Waseda-Universität in Tokio eine Studie, wonach 75 % der Teilnehmer angaben, sich bei emotionaler Beratung an KI-Systeme zu wenden. Gleichzeitig sehen sich KI-Entwickler zunehmender Kritik ausgesetzt, da Klagen prüfen, ob dialogorientierte KI-Systeme verantwortlich sind für die Verstärkung von Wahnvorstellungen oder schädlichem Verhalten bei verletzlichen Nutzern.