Logo Die Sachsen News
Nachrichten / Wissensland

Neue Studie zeigt Risiken im Umgang mit KI in der Medizin

Digitale Systeme helfen bei Diagnosen, bergen aber Risiken durch menschliche Fehlentscheidungen
KI unterstützt Ärztinnen und Ärzte im Klinikalltag, doch der richtige Umgang bleibt entscheidend. © pixabay/Tung Nguyen
Von: Wissensland
KI hilft in Kliniken immer häufiger. Doch eine Studie aus Dresden zeigt, dass Fehler oft durch den Umgang mit der Technik entstehen. Ein Leitfaden soll das ändern.

Im Alltag verlassen wir uns längst auf digitale Helfer. Navigations-Apps oder Sprachassistenten geben den Ton an. Auch in der Medizin hält Künstliche Intelligenz Einzug. Doch wie sicher sind diese Systeme im Zusammenspiel mit Menschen?

Forschende der Technische Universität Dresden (TUD) zeigen, dass genau hier Risiken entstehen. Ihr Leitfaden soll helfen, diese besser zu erkennen und zu vermeiden.

Risiken entstehen im Zusammenspiel

Das Team um Stephen Gilbert vom Else Kröner Fresenius Zentrum für Digitale Gesundheit der TUD hat seine Ergebnisse jetzt in NEJM AI veröffentlicht. Die zentrale Erkenntnis: Nicht nur die Technik entscheidet über Sicherheit, auch die Nutzung durch Menschen spielt eine große Rolle.

KI-Systeme unterstützen heute etwa Radiologen bei der Krebsdiagnose oder helfen bei Therapieentscheidungen. Doch dabei kann es zu Fehlern kommen. Ein Beispiel ist der sogenannte Automatisierungsbias. Dabei übernehmen Fachkräfte Empfehlungen der KI zu schnell und prüfen sie nicht mehr kritisch. Ein weiteres Problem ist falsches Vertrauen. Manche verlassen sich zu stark auf die Technik. Andere ignorieren sie. Beides kann die Behandlung verschlechtern. Auch Stress durch komplexe Systeme oder ein schleichender Verlust von Fachwissen können Risiken erhöhen.

Solche Effekte sind international bekannt. Studien aus den USA und Europa zeigen ähnliche Muster. Besonders bei Entscheidungssoftware kommt es immer wieder zu Fehlinterpretationen oder Übervertrauen. Fachleute sprechen deshalb von einem zentralen Problem der Mensch-Maschine-Interaktion.

Mehr aus dieser Kategorie

Leitfaden für mehr Sicherheit

Die Dresdner Forschenden haben sieben konkrete Empfehlungen entwickelt. Sie richten sich an Hersteller und Prüfstellen. Ziel ist es, Risiken früh zu erkennen. Ein wichtiger Punkt dabei ist die klare Rollenverteilung. Es muss feststehen, was die KI übernimmt und was der Mensch entscheidet. Ergebnisse sollen verständlich dargestellt werden. Zudem braucht es Schulungen und Notfalllösungen bei Systemausfällen. Auch nach der Zulassung endet die Arbeit nicht. Die Nutzung soll weiter beobachtet werden. Fehlanwendungen oder falsches Vertrauen müssen erkannt und korrigiert werden.

Das Forschungsteam arbeitete mit Partnern aus Oxford und Genf zusammen. Langfristig wollen die Beteiligten erreichen, dass menschliche Faktoren stärker in die Zulassung von KI Medizinprodukten einfließen. Die Studie zeigt einen klaren Trend: KI kann die Medizin verbessern, doch sie bringt auch neue Risiken mit sich. Entscheidend bleibt der Mensch. Nur wenn Technik und Nutzer gut zusammenspielen, profitieren Patienten wirklich.


Originalpublikation:
Rebecca Mathias, Anne Schmitt, Mateo Campos, Baptiste Vasey, Sebastian Lorenz, Peter McCulloch, Stephen Gilbert: Evaluation of Human Factors-Related Risks in AI-Enabled Medical Devices: A Practical Guide, NEJM AI, 2026.

Wissensland
Artikel von

Wissensland

Wissensland ist für die Inhalte selbst verantwortlich. Es gilt der Kodex der Plattform. Die Plattform prüft und behandelt Inhalte gemäß den gesetzlichen Vorgaben, insbesondere nach dem NetzDG.

METIS