Inhaltsverzeichnis

KI & Ethik

Stakeholderperspektiven auf KI-unterstützte medizinische Entscheidungsfindung und Entwicklung ethischer Leitlinien für den Einsatz von KI-Systemen in der Medizin

Skizze

An der Ostbayerischen Technischen Hochschule (OTH) Regensburg beginnt ein auf mehrere Jahre angelegtes Forschungsprojekt, in dem normative Fragen KI-unterstützter medizinischer Diagnosen untersucht werden sollen (am Beispiel eines Verfahrens zur KI-gestützten Diagnose von Speiseröhrenkarzinomen). Geplant ist eine Stakeholderbefragung durchzuführen, um zunächst auf der deskriptiven Ebene ein Bild davon zu zeichnen, wie die Haltung der verschiedenen Stakeholdergruppen solchen Systemen gegenüber ist, welche Erwartungen und auch Befürchtungen damit verbunden sind und welche Anwendungsszenarien präferiert werden. Darüber hinaus soll versucht werden eine (vorläufige) ethische Leitlinie zu formulieren, wie KI-unterstützte Diagnostik eingesetzt werden darf bzw. sollte. Die Arbeit in dem Projekt setzt also sowohl die Bereitschaft und Fähigkeit zur Nutzung empirischer Methoden wie zur bio- bzw. medizinethischen Analyse voraus.

Beschreibung

Die automatisierte Auswertung medizinischer Bilddaten insbesondere zur Diagnoseunterstützung und Therapieentscheidung befindet sich derzeit durch signifikante Erfolge von Methoden im Bereich der künstlichen Neuronalen Netze in einem Paradigmenwechsel. Bislang stellte der Arzt den „Goldstandard“ dar. Seine diagnostischen Fähigkeiten galten als obere Schranke dessen, was möglich ist. Durch Einsatz von tiefen neuronalen Netzen (Deep Learning) konnte in den letzten Jahren eine Qualität bei der diagnostischen Auswertung medizinischer Bilder erreicht werden, die den ärztlichen „Goldstandard“ nicht nur erreicht, sondern sogar übertrifft. Damit begegnen sich Arzt und Rechner auf Augenhöhe, so dass z.B. künftig der Computer zumindest als Zweitgutachter etabliert werden könnte.

Gleichzeitig ist der rechnerbasierte Entscheidungsprozess auf Basis eines neuronalen Netzes für den Arzt eine Black Box und damit nicht nachvollziehbar. Dadurch wird er zum einen der Möglichkeit beraubt, aus den Informationen, die Grundlage für die Ergebnisse des Rechners sind, eigene Schlüsse zu ziehen und sich selbst als Lernender weiter zu entwickeln. Zum anderen kann er seiner Verantwortung für die Diagnoseentscheidung nicht gerecht werden im Abwägungsprozess zwischen der Rechnerentscheidung und seinen eigenen Überlegungen.

Für Patientinnen und Patienten kann der Einsatz von Künstlicher Intelligenz massive Vorteile mit sich bringen, da einerseits Diagnosen zuverlässiger und objektiver werden. Zudem können diese Systeme insbesondere dazu beitragen, in durch den demografischen Wandel gering bevölkerten und infrastrukturell unterversorgten Landstrichen die medizinische Versorgung auf einem sehr hohen Niveau sicherzustellen. Allerdings wird es wohl unvermeidlich sein, dass sich durch den Einsatz solcher Systeme das Arzt-Patienten-Verhältnis und die personale Seite der medizinischen Versorgung langfristig von Grund auf verändern werden. Damit dies nicht zum Nachteil vor allem (aber nicht nur) der Patientinnen und Patienten geschieht, muss sichergestellt werden, dass wichtige Prinzipien der medizinischen Ethik (Autonomie, Wohltun, Nichtschaden, Gerechtigkeit) auch bei umfänglich technisch gestützten Diagnose- und gegebenenfalls Behandlungsprozessen gewahrt werden.

In diesem Umfeld werden in konkreten Projekten zum einen die komplexen Techniken des Deep Learning problemspezifisch angepasst und methodisch weiterentwickelt. Dabei wird insbesondere daran gearbeitet, z.B. durch geeignete Visualisierungen oder simulierte Bilddaten aus vom Rechner erlernten Modellen die Entscheidungsprozesse des Rechners nachvollziehbar zu gestalten. Zum anderen ist im Hinblick auf ethische Bewertungswerkzeuge und maßstäbe sowohl Grundlagenforschung als auch die (Weiter-)Entwicklung sowie schließlich die Formulierung von ethischen Leitlinien, Code of Conducts etc. notwendig. Dies soll dazu beitragen, dass die Patientinnen und Patienten entsprechende Diagnose- und Behandlungsverfahren akzeptieren und somit Hürden bei der Einführung solcher Systeme abgebaut werden können. Begleitend sollen mithilfe empirischer Studien mit unterschiedlichen Stakeholdergruppen (Patientinnen und Patienten, Ärztinnen und Ärzte, Pflegekräfte, Krankenkassen, u.a.) Bedarf, Akzeptanz, Gebrauchstauglichkeit oder Konsequenzen untersucht werden.

Aus medizinethischer Sicht ist außerdem zu fragen, wie die allgemeine Zugänglichkeit einer solchen Diagnose sichergestellt werden kann (Gerechtigkeit), da diese offensichtliche Vorteile mit sich bringt - es muss also ein diskriminierungsfreier Zugang gewährleistet werden, ohne gleichzeitig finanzielle Bürden für die Versicherten aufzubauen. Bei fehlerbehafteten Diagnosen stellen sich Fragen der Verantwortung und Verantwortlichkeit sowie der Patientenaufklärung bzgl. der Leistungsfähigkeit und Grenzen der Diagnose. Zu diesen Fragen sollen Vorschläge entwickelt werden, die in der Folge zu einer breiteren Debatte beitragen sollen, da sich an dem Projekt grundsätzliche Herausforderungen KI-gestützter Diagnoseverfahren aufzeigen lassen.