Sprache auswählen

German

Down Icon

Land auswählen

England

Down Icon

Sprechen Sie mit medizinischem Fachpersonal, nicht nur mit ChatGPT, fordern die Ärzte von Ontario auf

Sprechen Sie mit medizinischem Fachpersonal, nicht nur mit ChatGPT, fordern die Ärzte von Ontario auf

ChatGPT und ähnliche Tools der künstlichen Intelligenz können Patientenfragen manchmal genau beantworten, kanadische Medizinforscher weisen jedoch darauf hin, dass die Informationen sorgfältig geprüft werden müssen, bevor man auf Grundlage der Informationen handelt.

Der Rat der Forscher kommt zu einem Zeitpunkt, an dem die Ontario Medical Association (OMA) diese Woche eine Pressekonferenz veranstaltete, bei der es um selbst erstellte Informationsquellen – von Suchmaschinen über soziale Medien bis hin zu Chatbots – und deren Auswirkungen ging, sowie darum, was Patienten stattdessen tun können.

Es sei wichtig, die Menschen jetzt zu warnen, sagte Dr. Valerie Primeau, eine Psychiaterin aus North Bay, die stationäre und gemeinschaftliche Programme für psychische Gesundheit und Sucht leitet, weil Patienten zunehmend auf KI-Tools zurückgreifen.

Die Chatbots liefern überzeugende und einfühlsame Ergebnisse – die Informationen könnten jedoch gefälscht sein .

„Ich habe Patienten, die ChatGPT nutzen, um Rat zu bekommen und sich zu unterhalten“, sagte Primeau. „Ich gehe davon aus, dass dieses Problem auch weiterhin bestehen wird. Wenn wir es jetzt nicht angehen und den Menschen helfen, sich zurechtzufinden , werden sie Schwierigkeiten haben.“

Dr. David D'Souza, ein Strahlenonkologe aus London im Bundesstaat Ontario, der die klinische Forschung zu bildbasierten Krebsbehandlungen leitet, sagte, dass Patienten herkömmliche Behandlungen aufschieben könnten, je nachdem, wie sie die KI-Anweisungen unterbrechen.

„Ein Patient kam zu mir und fragte, ob er mit der Behandlung seines diagnostizierten Krebses noch ein paar Jahre warten sollte, weil er glaubt, dass KI die Krebsbehandlung für Patienten individuell anpassen wird“, sagte D'Souza gegenüber Reportern. „Ich musste ihn überzeugen, warum er sich jetzt behandeln lassen sollte.“

Lächelnde Frau
Dr. Zainab Abdurrahman empfiehlt Patienten, die Antworten von Chatbots mit den Angaben auf den Websites medizinischer Fachorganisationen zu vergleichen. (Tiffany Mongu/CBC)

Angesichts der Tatsache, dass Verbraucher diese Tools nutzen werden, empfiehlt die Präsidentin der OMA, Dr. Zainab Abdurrahman, in Posts mit der Aussage „Ärzte haben Ihnen das verheimlicht“ die Überprüfung der Websites relevanter Fachverbände, beispielsweise der Krebsvorsorgeverbände der Provinzen, um zu prüfen, ob diese ihre Aussage belegen.

Gefälschte Anzeigen , darunter auch KI-generierte Bilder, können Patienten ebenfalls in die Irre führen, warnte Abdurrahman, der auch klinischer Immunologe und Allergologe ist.

Der Verlust von Nuancen macht die KI-Ergebnisse weniger verlässlich

Während die Technologie voranschreitet, beantworten Chatbots heutzutage Gesundheitsfragen routinemäßig mit falschen Informationen, dieautoritär erscheinen .

Ineiner Studie speisten Dr. Benjamin Chin-Yee, Assistenzprofessor in der Abteilung für Pathologie und Labormedizin an der Western University, und seine Co-Autoren fast 5.000 Zusammenfassungen medizinischer und wissenschaftlicher Literatur in KI-Großsprachenmodelle ein, darunter ChatGPT, und forderten Zusammenfassungen an.

Sie stellten fest, dass drei Viertel der KI-Versionen wichtige Teile sorgfältig gehüteter Aussagen übersahen.

Beispielsweise könne in dem Zeitschriftenartikel stehen, dass ein Medikament nur bei einer bestimmten Patientengruppe wirksam war, während in der Zusammenfassung dieses wichtige Detail fehlt, sagte Chin-Yee, der auch Hämatologe ist.

Ein Foto zeigt Bildschirme mit dem Logo von DeepSeek, einem chinesischen Unternehmen für künstliche Intelligenz, das Open-Source-Modelle für große Sprachen entwickelt, und dem Logo des KI-Chatbots ChatGPT von OpenAI in Toulouse im Südwesten Frankreichs am 29. Januar 2025.
Generative KI-Technologien wie Chatbots basieren auf Mustererkennungstechnologien, die die wahrscheinlichste Antwort auf eine bestimmte Frage liefern. (Lionel Bonaventure/AFP/Getty Images)

„Die Sorge besteht darin, dass der Verlust dieser Detailnuancen für Ärzte, die versuchen, dieses Wissen für ihre klinische Praxis zu nutzen, irreführend sein kann.“

Chin-Yee sagte, dass KI ein aktives Forschungsgebiet sei, das sich rasch verändere und neuere Modelle hervorbringe, die menschlicher und benutzerfreundlicher seien. Sich jedoch nur auf die Werkzeuge zu verlassen, könne auch Nachteile mit sich bringen.

Auf ähnliche Weise verglich David Chen, ein Medizinstudent an der Universität von Toronto, die von Chatbots bereitgestellten Ergebnisse auf 200 Fragen zum Thema Krebs aus einem Reddit-Forum mit den Antworten von Onkologen.

„Wir waren überrascht, dass diese Chatbots auf Grundlage der Bewertung von Qualität, Empathie und Lesbarkeit durch unser Ärzteteam in der Lage waren, eine Leistung zu erbringen, die der eines menschlichen Experten nahekommt“, sagte Chen.

Allerdings spiegeln die experimentellen Ergebnisse möglicherweise nicht wider, was in der realen Welt passiert.

„Ohne medizinische Aufsicht ist es schwierig, einigen Ergebnissen dieser generativen Technologien hundertprozentig zu vertrauen“, sagte Chen und fügte hinzu, dass Bedenken hinsichtlich Datenschutz, Sicherheit und Patientenvertrauen noch nicht vollständig ausgeräumt seien.

ANSEHEN | Forscher nutzen KI zur Behandlung von Gehirnpatienten:
Künstliche Intelligenz dürfte das Gesundheitswesen revolutionieren. An der medizinischen Fakultät der Memorial University wird KI bereits zur Behandlung von Patienten mit verschiedenen Hirnerkrankungen eingesetzt. Neurowissenschaftlerin Michelle Ploughman führte Carolyn Stokes vom CBC durch ihr Labor im Miller Centre und demonstrierte, wie KI die Patientenversorgung verändert.
Verlassen Sie sich nicht auf einen einzigen Chatbot

Generative KI-Technologien wie Chatbots basieren auf Mustererkennungstechnologien, die auf der Grundlage der trainierten Informationen die wahrscheinlichste Antwort auf eine gegebene Frage liefern. In der Medizin können jedoch auch unwahrscheinliche Diagnosen wichtig sein und sollten nicht ausgeschlossen werden.

Darüber hinaus können Chatbots halluzinieren – also Ergebnisse produzieren, die überzeugend klingen, aber falsch, erfunden, unsinnig oder irrelevant sind.

„Es gibt auch Forschungsstudien, die nahelegen, dass die Halluzinationsrate dieser Chatbots bei über 20 Prozent liegen kann“, sagte Chen, was die Ergebnisse „klinisch fehlerhaft“ machen könnte.

Ein Mann in einem Sportjackett und Einstecktuch lächelt in die Kamera
Die von Chatbots bereitgestellten medizinischen Informationen seien noch nicht vollständig für die öffentliche Nutzung geprüft, sagt Dr. Eric Topol. (Nicholas Barrett)

Im Frühjahr veröffentlichte der Kardiologe Eric Topol, Professor und Executive Vice President von Scripps Research in San Diego, Kalifornien, ein Buch mit dem Titel „ Superagers: An Evidence-Based Approach to Longevity“ , in dem er die Auswirkungen der KI auf Langlebigkeit und Lebensqualität untersuchte.

„Es gibt viele gute und auch schlechte Anekdoten“, sagte Topol über Patienten, die Chatbots nutzen. „Es wurde bisher nicht systematisch und sinnvoll für die öffentliche Nutzung ausgewertet.“

Topol rät, mehrere Chatbots zu konsultieren und zu prüfen, ob die Informationen zuverlässig sind. Er schlägt außerdem vor, nach Zitaten aus der medizinischen Literatur zu fragen. Manchmal seien diese jedoch nicht echt und müssten überprüft werden.

Im Idealfall, so Topol, gäbe es einen Praxistest der Chatbot-Antworten mit Zehntausenden von Menschen. Dabei würden die durchgeführten Tests, die gestellten Diagnosen und die Ergebnisse für diejenigen, die KI-Quellen nutzten und diejenigen, die dies nicht taten, erfasst. Tech-Unternehmen würden sich jedoch wahrscheinlich nicht beteiligen, da nicht jeder einzelne davon profitieren würde, sagte er.

„Die Welt ist heute eine andere und man kann die Zeit nicht zurückdrehen“, sagte Topol über den klugen Einsatz der Werkzeuge.

cbc.ca

cbc.ca

Ähnliche Nachrichten

Alle News
Animated ArrowAnimated ArrowAnimated Arrow