Künstliche Intelligenz 09.10.2024, 07:00 Uhr

ChatGPT in der Notaufnahme: Der Mensch ist schlauer

Die generative KI ChatGPT könnte Ärzte in Notaufnahmen unterstützen, benötigt dafür jedoch noch die richtige Balance zwischen zu viel und zu wenig Vorsicht. Das hat eine Studie der University of California, San Francisco (UCSF) gezeigt. Obwohl das Modell angepasst werden kann, erreicht es noch nicht das klinische Urteilsvermögen menschlicher Ärzte.

Blick in die leere Notaufnahme eines Krankenhauses

In der Notaufnahme hat noch der Mensch die Nase vorn, nicht die KI.

Foto: PantherMedia / Axel Killian

Der Hauptautor der Studie, Chris Williams, betont, dass Kliniker ChatGPT nicht blind vertrauen sollten. Während das Modell bei einfachen Entscheidungen zwischen zwei Patienten etwas besser abschneidet als Menschen, stößt es bei komplexeren Aufgaben wie Behandlungsempfehlungen in der Notaufnahme an seine Grenzen. ChatGPT kann zwar Fragen zu medizinischen Untersuchungen beantworten und bei der Erstellung klinischer Notizen helfen, ist jedoch noch nicht für komplizierte Situationen mit vielschichtigen Überlegungen geeignet, wie sie in der Notaufnahme häufig vorkommen.

ChatGPT empfiehlt häufiger als nötig medizinische Leistungen

Die Forscher testeten ChatGPT-3.5 und ChatGPT-4 anhand von 1.000 Notaufnahmebesuchen, die aus einem Archiv von mehr als 251.000 Fällen ausgewählt wurden. Dabei verglichen sie die Genauigkeit der KI-Empfehlungen mit denen von Ärzten hinsichtlich Einweisung, radiologischer Untersuchungen und Antibiotikaverordnung. Es zeigte sich, dass ChatGPT diese Leistungen häufiger als nötig empfahl. ChatGPT-4 war acht Prozent und ChatGPT-3.5 sogar 24 Prozent weniger genau als menschliche Ärzte.

Die Tendenz zur dieser „Übervorsichtigkeit“ könnte laut Williams darauf zurückzuführen sein, dass ChatGPT mit Internetdaten trainiert wurde. Seriöse medizinische Websites sind oft darauf ausgelegt, Leser an Ärzte zu verweisen, anstatt selbst Notfallfragen zu beantworten. In der Notaufnahme ist es jedoch nicht immer angebracht, auf Nummer sicher zu gehen, da unnötige Eingriffe den Patienten schaden, Ressourcen belasten und zu höheren Kosten führen können.

Bessere Rahmenbedingungen für ChatGPT in der Notaufnahme nötig

Um ChatGPT für den Einsatz in der Notaufnahme vorzubereiten, müssen bessere Rahmenbedingungen geschaffen werden, um klinische Informationen ideal auszuwerten. Dabei gilt es, ein Gleichgewicht zu finden: dazwischen, einerseits ernsthafte Versäumnisse zu vermeiden und andererseits unnötige Untersuchungen und Kosten zu verhindern. Forschende, Kliniker und die Öffentlichkeit müssen gemeinsam überlegen, wo diese Grenzen gezogen werden sollen und wie viel Vorsicht angemessen ist.

Stellenangebote im Bereich Medizintechnik, Biotechnik

Medizintechnik, Biotechnik Jobs
Ziehm Imaging GmbH-Firmenlogo
Regulatory Affairs Specialist (m/w/d) Ziehm Imaging GmbH
Nürnberg Zum Job 
Klinikverbund Südwest-Firmenlogo
Strahlenschutzbeauftragter (m/w/d) Klinikverbund Südwest
Sindelfingen Zum Job 
Neovii Biotech GmbH-Firmenlogo
Qualification Engineer (m/w/d) Neovii Biotech GmbH
Gräfelfing Zum Job 
Fresenius Kabi-Firmenlogo
Director (m/w/d) Operations Media Supply, Formulation & API Fishoil Fresenius Kabi
Friedberg / Hessen Zum Job 

Williams betont, dass es keine perfekte Lösung gibt, aber angesichts der bekannten Tendenzen von ChatGPT müsse man sorgfältig überlegen, wie das Modell in der klinischen Praxis eingesetzt werden soll. Die Studie macht die Herausforderungen deutlich, die noch zu meistern sind, bevor generative KI zuverlässig in der Notaufnahme eingesetzt werden kann. Dennoch sehen Forschende das Potenzial, dass ChatGPT in Zukunft Ärzte bei Entscheidungen unterstützen und die Patientenversorgung verbessern könnte.

ChatGPT könnte zukünftig Unterstützung in der Notaufnahme leisten

Trotz der aktuellen Herausforderungen sind die UCSF-Forscher überzeugt, dass ChatGPT und ähnliche Modelle in Zukunft eine wertvolle Ergänzung in der Notaufnahme sein könnten. Durch die Fähigkeit, schnell große Mengen an Informationen zu verarbeiten und Muster zu erkennen, könnte KI Ärztinnen und Ärzte bei der Diagnosestellung und Behandlungsplanung unterstützen. Wichtig ist jedoch, dass die Entscheidungshoheit stets beim menschlichen Mediziner bleibt und ChatGPT als Hilfsmittel und nicht als Ersatz für klinische Expertise betrachtet wird.

Um das volle Potenzial von ChatGPT in der Notaufnahme auszuschöpfen, sind weitere Forschungen und Entwicklungen nötig. Die Modelle müssen speziell für den medizinischen Kontext trainiert und angepasst werden, um präzisere und zuverlässigere Empfehlungen zu geben. Zudem müssen ethische und rechtliche Fragen geklärt werden, wie beispielsweise die Verantwortung bei Fehlentscheidungen oder der Schutz sensibler Patientendaten.

Fazit: ChatGPT hat Potenzial, erfordert aber weitere Forschung und Entwicklung

Die Studie der UCSF zeigt, dass ChatGPT in seiner jetzigen Form noch nicht für den eigenständigen Einsatz in der Notaufnahme geeignet ist. Das Modell neigt zur Übervorsicht und erreicht nicht die Genauigkeit menschlicher Ärzte bei komplexen Entscheidungen. Dennoch sehen die Forschende das Potenzial, dass ChatGPT nach weiterer Anpassung und Verbesserung, Ärzte in der Notaufnahme unterstützen und die Patientenversorgung verbessern könnte.

Bis dahin ist es wichtig, dass Kliniker ChatGPT nicht blind vertrauen, sondern als Hilfsmittel betrachten, das das eigene Urteilsvermögen ergänzt, aber nicht ersetzt. Die Entwicklung besserer Rahmenbedingungen für den Einsatz von ChatGPT in der medizinischen Praxis erfordert eine enge Zusammenarbeit von Wissenschaftlerinnen und Wissenschaftlern, Klinikern und der Öffentlichkeit, um die richtigen Grenzen zu finden und das bestmögliche Gleichgewicht zwischen Sicherheit und Effizienz zu erreichen.

Die Studie wurde vom Eunice Kennedy Shriver National Institute of Child Health and Human Development und den National Institutes of Health (K23HD110716) finanziert. Weitere Autoren neben Chris Williams sind Brenda Miao, Aaron Kornblith und Atul Butte, alle von der UCSF. UCSF Health, das wichtigste akademische medizinische Zentrum der Universität, umfasst erstklassige Spezialkliniken und klinische Programme in der gesamten Bay Area.

Ein Beitrag von:

  • Julia Klinkusch

    Julia Klinkusch ist seit 2008 selbstständige Journalistin und hat sich auf Wissenschafts- und Gesundheitsthemen spezialisiert. Seit 2010 gehört sie zum Team von Content Qualitäten. Ihre Themen: Klima, KI, Technik, Umwelt, Medizin/Medizintechnik.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.