Hilft ChatGPT einem Hund, einen Krebsimpfstoff zu entwickeln? Die Geschichte von AI Huatuo verbreitet sich viral – ein taiwanesischer Doktor weist auf drei große Missverständnisse hin

CryptoCity

Im Internet kursiert die Nachricht, dass ChatGPT bei der Entwicklung eines Hundekrebs-Impfstoffs geholfen haben soll. Experten klären auf, dass KI nur bei der Recherche unterstützt, die tatsächliche Entwicklung jedoch auf professionellen Wissenschaftlern beruht. Man ruft dazu auf, die medizinische Rolle der KI nicht zu überhöhen, und weist darauf hin, dass es an wissenschaftlichen Beweisen für diesen Fall mangelt.

KI-Welt im Aufruhr: ChatGPT hilft Hunden bei Krebs-Impfung

Der Mitbegründer von OpenAI, Greg Brockman, teilte kürzlich eine Geschichte, die Aufmerksamkeit erregte. Hauptakteure sind der australische KI-Berater Paul Conyngham und sein 7-jähriger Shar Pei Rosie.

Rosie ist eine krebskranke Hündin, bei der nur noch wenige Monate Leben prognostiziert wurden. Conyngham behauptet, dass sie mit Unterstützung von ChatGPT, einer Tochtergesellschaft von OpenAI, erfolgreich eine mRNA-Krebs-Impfung entwickelt haben.

Nach Bekanntwerden der Nachricht stieg die Aufmerksamkeit in der Community. Manche preisen die Wunderkraft der KI in der Medizin, vergleichbar mit Hua Tuo. Obwohl die Behandlung plausibel erscheint, beginnen einige Forscher, die tatsächlichen Fähigkeiten großer Sprachmodelle (LLMs) bei der Impfstoffentwicklung zu hinterfragen und die Rolle von ChatGPT zu untersuchen.

Ist das so erstaunlich? Hier die wahre Geschichte

Zurück zum Zeitpunkt der Therapiefindung: Conyngham sagt, er habe Google’s AlphaFold genutzt, um das c-KIT-Protein in Rosies Körper zu modellieren und mit gesunden Daten verglichen. Dabei habe er Mutationen gefunden, die den Literaturvorhersagen entsprachen.

Anschließend suchte er nach Verbindungen, die dieses Protein angreifen können, und fand ein Medikament, das in den USA für andere Krebsarten zugelassen ist. In einem Interview im australischen „Today Show“ erklärte Conyngham, dass sie den Tumor entnommen, DNA-Sequenzierung durchgeführt, das Gewebe in Daten umgewandelt, das Problem identifiziert und eine Lösung entwickelt haben. Dabei habe ChatGPT die gesamte Unterstützung geleistet.

Danach kontaktierte Conyngham Professor Palli Thordarson vom RNA-Institut der University of New South Wales (UNSW). Dr. Martin Smith führte die Sequenzierung und Datenumwandlung durch, während Professor Thordarson für die Zusammenstellung der mRNA-Impfung verantwortlich war.

Bildquelle: UNSW Sydney, RNA-Institut, Professor Palli Thordarson

Bei der Bestätigung des spezifischen Molekül-Designs gab Conyngham an, dass die endgültige Impfstoffkonstruktion von Grok entworfen wurde, während Gemini einen Großteil der Arbeit übernahm.

ChatGPT wurde hauptsächlich genutzt, um wissenschaftliche Arbeiten zu filtern und Forscher zu finden. AlphaFold kann die dreidimensionale Struktur von Proteinen vorhersagen. Conyngham bewertete die AlphaFold-Modellierung mit einem Vertrauensscore von 54,55. Dr. Kate Michie, eine Strukturbiologin, warnte, dass dieser Wert relativ niedrig sei und das System Fehler aufweisen könne, die durch Laborexperimente bestätigt werden müssten.

Dr. Smith bestätigte, dass AlphaFold nicht für die Impfstoffentwicklung verwendet wurde. Dr. Thordarson erklärte, dass die Behandlung zwar Rosie mehr Zeit verschafft habe, aber einige Tumore nicht ansprachen und die Therapie mit Checkpoint-Inhibitoren kombiniert werden müsse.

Der größte Verdienst gebührt den Wissenschaftlern und Forschungseinrichtungen

Obwohl Conynghams Versuch kein vollständiger Beweis für die medizinische Wirksamkeit von KI ist, wurden die zugrunde liegenden wissenschaftlichen Prinzipien bestätigt, und die beteiligten Forscher verfügen über anerkannte Qualifikationen.

Doch bei dieser Geschichte zur Entwicklung eines mRNA-Krebs-Impfstoffs ist der eigentliche Verdienst vor allem den Wissenschaftlern und Forschungseinrichtungen zuzusprechen, insbesondere jenen, die für Sequenzierung, Impfstoffherstellung und Sicherheitsregeln verantwortlich sind.

Taiwanesischer Doktor weist auf drei große Irrtümer in der Geschichte hin

KI-Chatbots können bei der Recherche und Organisation wissenschaftlicher Literatur helfen, aber sie sind noch weit davon entfernt, das Fachwissen und die Infrastruktur zu ersetzen, die für die Entwicklung und Produktion medizinischer Lösungen notwendig sind.

Im September letzten Jahres designte ein Forschungsteam der Stanford University in den USA erstmals ein lebendes Virus (Phage) mithilfe des Bio-AI-Modells Evo. Doch das ist noch weit entfernt von der Entwicklung eines Impfstoffs.

Der Molekularbiologe Huang Yi von der Chang Gung University in Taiwan nennt drei Hauptkritikpunkte an der Behauptung „ChatGPT hilft bei der Krebs-Impfstoffentwicklung für Hunde“:

  1. Fehlende wissenschaftliche Beweise: Es gibt keine Kontrollgruppe. Mastzelltumore können spontan zurückgehen, und es fehlen peer-reviewed Veröffentlichungen. Zwar sind die Wissenschaftler und die Universität echt, aber es fehlen unabhängige Validierungen durch Tumormessungen, Immunreaktionsdaten oder histologische Bestätigungen.
  2. Übertriebene Darstellung der KI-Rolle: ChatGPT dient nur der erweiterten Recherche. Das tatsächliche Design basiert auf Algorithmen und der Expertise der Wissenschaftler bei der Synthese von mRNA. Die Geschichte zeigt, dass die Berechnung den Zugang erleichtert, medizinische Verfahren aber weiterhin Fachwissen und Unterstützung benötigen.
  3. Große Unterschiede in den medizinischen Regularien: Die Veterinärmedizin ist stark anders geregelt als die Humanmedizin. Diese Behandlung ist eine Art „Wohltätigkeitsmedizin“, die keine klinischen Studien der US Food and Drug Administration (FDA) erfordert.

Er schlussfolgert: „Die Medien lieben es, KI-Wunder zu berichten, aber die Wissenschaft funktioniert so nicht.“

  • Weiterführende Lektüre: Taiwan entwickelt weltweit erstes! Gesundheits-Apps mit Gemini für personalisierte KI-Empfehlungen bei Diabetes
Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare