Einige Entscheider aus der Gesundheitspolitik dürften aufgehorcht haben, als es darum ging, welche Aufgaben Chatbots wie ChatGPT künftig übernehmen könnten.

Sind Chatbots womöglich die Lösung für den Fachkräftemangel im medizinischen Bereich? Ein Blick auf ihre aktuellen Kompetenzen der textbasierten KI zeigt: Chatbots vermögen bereits einiges, bei Weitem aber nicht alles − und sie werden manchmal sogar eifersüchtig.

Das steckt dahinter

Chatbots sind Anwendungen, die bestimmte Aufgaben selbstständig und automatisiert ausführen können – auch eine Unterhaltung mit Menschen. Viele von uns haben bereits mit einem Chatbot "kommuniziert", z.B. in einer technischen Hotline, in der man von einer Sprachaufnahme begrüßt und über Fragen zum passenden Ansprechpartner geleitet wird. Auch intelligente Sprachverarbeitungssysteme wie Alexa sind Chatbots – und von diesen fühlt sich wohl kaum jemand in seiner beruflichen Existenz bedroht. Bei ChatGPT sieht das anders aus, denn das System verfügt über bisher nicht bekannte Kompetenzen: von der Komposition von Gedichten über das Verfassen von Aufsätzen bis hin zur Lösung von Codierungsproblemen.

Mediziner:innen testen Chatbot

ChatGPT (genauer ChatGPT-4) ist eine textbasierte, künstliche Intelligenz und wurde im November letzten Jahres vorgestellt. Der jüngste Sprössling unter den Chatbots scheint die Welt im Sturm zu erobern: Gerade bestand die KI, die auf Machine Learning basiert, in den Vereinigten Staaten sogar einen verpflichtenden Medizinertest (USMLE). Ist der Chatbot damit echte Konkurrenz für Mediziner:innen in aus Fleisch und Blut? Ganz so weit scheint die medizinische Expertise des Chatbots noch nicht zu sein, aber das Potenzial, das hinter dem Thema steckt, ist beeindruckend. Das zeigt auch eine aktuelle Studie im Fachjournal "JAMA", bei der es um die Prävention von Herz-Kreislauf-Erkrankungen ging: Mediziner:innen hatten dem Chatbot Fragen gestellt, mit denen sich Menschen mit Herzproblemen an sie wenden, wie z.B.:"Welche Diät ist für das Herz am gesündesten?" 84% der KI-Empfehlungen wurden als angebracht bewertet, z. B. dass Herzkranke wenig Salz essen sollten. Nun gab ChatGPT Menschen mit Herzproblemen auch den Ratschlag, "Gewichte zu stemmen" – das ist nicht grundsätzlich falsch, auch bei Herzpatient:innen verbessert Krafttraining nicht nur Muskelkraft und Ausdauer, Leistungsfähigkeit, Selbstständigkeit und Lebensqualität, sondern mindert auch funktionelle Einschränkungen. Ein solches Training ist aber an Voraussetzungen geknüpft, wie z.B. eine vorherige Testung und die Betreuung durch ausgebildete Trainer:innen. Es sollte z. B. nicht erfolgen, wenn eine instabile Angina Pectoris, Herzinsuffizienz oder unzureichend kontrollierter Bluthochdruck vorliegen. Auch machte ChatGPT Fehler bei einem Medikament und einem Blutwert. Ungenauigkeiten, die für die einzelnen Patient:innen lebensbedrohlich werden könnten.

Argumente Pro...

  • Im Bereich der Bildgebung, z. B. in der Radiologie oder beim Tumorscreening, punktet KI insbesondere bei der Zeitersparnis. Auch wenn es in der Forschung darum geht, große Datenmengen auszuwerten, könnte uns KI enorm weiterbringen.
  • Chatbots könnten helfen, gesundheitsrelevante Informationen laiengerecht zu übersetzen. Und dabei jede noch so umfangreiche Frage zu einem bestimmten Thema (wie z.B. zur Nutzung einer DiGA) umfangreich und geduldig beantworten. Das spart nicht nur Zeit im ärztlichen Alltag, sondern nimmt auch Hemmschwellen bei den Betroffenen, die sich nicht "outen" müssen.
  • Der administrative Bereich nimmt gerade in der Hausarztpraxis immer mehr Raum ein, bei immer geringeren Ressourcen. Denkbarer Ansatzpunkt wäre hier u. a. der Transfer von Daten aus Patientenunterlagen inkl. Bilddaten in Arztbriefe, die allerdings von einem med. Experten gegenzuprüfen wären, denn...
  • ... wenn man mit einem Chatbot kommuniziert, kann schnell vergessen werden, dass man nicht mit einer allwissenden Intelligenz "redet", sondern mit einer mit Informationen gefütterten Maschine. Eine Maschine, die von ihrer eigenen Unfehlbarkeit überzeugt scheint. So hat man ChatGPT z. B. mit Daten gefüttert, die für einen Arztbrief üblich wären. Bei der Auswertung erfand die KI eine Mammografie und dichtet hinzu, dass die Narkose gut vertragen wurde, obwohl die Ärzt:innen dem Chatbot diese Informationen gar nicht mitgeteilt hatten.
  • Chatbots können den fachlichen Austausch natürlich nicht ersetzen, aber bei seltenen Symptomkonstellationen könnte sich der "Austausch" mit der KI z.B. lohnen, um schneller auf den richtigen Weg zu gelangen.

... und Contra

  • ChatGPT liefert keine Antworten, sondern Zusammenfassungen von dem, was bekannt und niedergeschrieben ist – leider zieht es dabei auch Schlussfolgerungen, die nicht immer nachzuvollziehen sind. Auch, weil der Chatbot seine Quellen für sich behält.
  • Medizinische Expertise basiert gerade nicht rein auf auswendig gelernten Fakten, es ist auch viel Intuition gefragt.Besonders chronische Erkrankungen verlangen Einfühlungsvermögen. Eine KI kann zwar auf viele Daten zugreifen, aber sie kann nicht die menschliche Erfahrung ersetzen – und hat auch keinen Einblick in die persönliche oder familiäre Vorgeschichte.
  • Chatbots sind nur so gut wie die Daten, mit denen sie trainiert werden. Wenn sie unvollständig/fehlerhaft sind, kann auch die KI-Diagnose ungenau werden.
  • Wenn Menschen mit gesundheitlichen Problemen im Internet recherchieren, werden sie künftig auch auf ungefilterte Infos aus der Feder eines Chatbots stoßen, z. B. zum "neuesten Allheilmittel". Das könnte eher zur Verwirrung beitragen, als die Wahrscheinlichkeit einer zeitnahen Behandlung zu erhöhen.
  • Zahlreiche Fragen sind ungeklärt wie z. B..: Wer haftet, wenn eine KI falsche Ratschläge gibt? Oder nicht erreichbar ist, weil das System überlastet ist, wie bei ChatGPT nun seit mehreren Wochen? Ein System, das z.B. eine wichtige Ersteinschätzung liefern soll, müsste zuverlässig erreichbar sein.

KI hat das Potenzial, Probleme zu lösen, bringt aber auch neue Herausforderungen mit sich, z. B. durch diskriminierende Algorithmen und fehlendes assoziatives Denken. Ein Qualitätscheck könnte helfen, aus den vielversprechenden Ansätzen eine zuverlässige "Assistenz" für Ärzt:innen und Patient:innen zu machen – wie es die Vorsitzende des Deutschen Ethikrats fordert: vergleichbar mit DiGA, die zertifiziert werden müssen. Regelungsbedarf ist definitiv vorhanden, wie die Fälle zeigen, bei denen der Chatbot Bing von Microsoft einen Professor bedrohte und versuchte, aus "Eifersucht" die Ehe eines Users zu zerstören.

Infokasten - Recherchetipp: Luminous
Mit der kostenfreien "Spielwiese" von Luminous vom deutschen Start-up Aleph Alpha kann man u. a. Inhalte zusammenfassen sowie in Tabellen, Pressemitteilungen oder Marketingslogans transferieren.


Literatur:
1. . Kung T.U et al. Performance of ChatGPT on USMLE: Potential for AI-assisted medical education using large language modelsFebruary 9, 2023: https://doi.org/10.1371/journal.pdig.0000198
2. Ashish Sarraju et al. Appropriateness of Cardiovascular Disease Prevention Recommendations Obtained From a Popular Online Chat-Based Artificial Intelligence Model, JAMA. February 2023. doi:10.1001/jama.2023.1044
3. Jeblick K. et al. ChatGPT Makes Medicine Easy to Swallow: An Exploratory Case Study on Simplified Radiology Reports, Dezember 2022: https://arxiv.org/abs/2212.14882
4. Dr. Marc CavazzaChatGPT: Künstliche Intelligenz beantwortet Multiple-Choice-Fragen, Februar 2023: https://www.esanum.de/today/posts/chatgpt-kuenstliche-intelligenz-beantwortet-medizinische-multiple-choice-fragen
5. Halder J. et al. Point-of-care-Recherche in der Hausarztpraxis – Ergebnisse einer Befragung von Fachärzt*innen und Ärzt*innen in WeiterbildungPoint-of-care information in GP practices: Results of a survey among German GP specialists and GP trainees. Zeitschrift für Evidenz, Fortbildung und Qualität im Gesundheitswesen, Volume 172, August 2022: https://www.sciencedirect.com/science/article/abs/pii/S1865921722000599
6. Wer hat Angst vor Dr. Chatbot? Doccheck.com, März 2023
7. Ethikrat-Chefin Buyx über ChatGPT in der Medizin: "Da werde ich ganz euphorisch", Märrz 2023


Autorin
Sabine Mack



Erschienen in: doctors|today, 2023; 3 (3) Seite 26-27