Logo Logo
Hilfe
Kontakt
Switch language to English
KI-Systeme zur Unterstützung ärztlicher Entscheidungen. eine ethische Bewertung
KI-Systeme zur Unterstützung ärztlicher Entscheidungen. eine ethische Bewertung
Anwendungen aus dem Bereich der Künstlichen Intelligenz, die insbesondere auf der Technologie des Maschinellen Lernens beruhen, breiten sich in der Medizin zunehmend im Gebiet der Entscheidungsunterstützung aus. Einige dieser Systeme unterstützen Ärzte, indem sie Diagnosen, Prognosen sowie Therapieempfehlungen abgeben. Diese Anwendungen können auch als artificial intelligence-based clinical decision support systems (AI-CDSS) bezeichnet werden. Indem die Systeme die klinische Entscheidungsfindung beeinflussen, dringen sie in den Kernbereich der Medizin und des ärztlichen Tuns und Denkens vor. In diesem Zusammenhang entstehen einige ethische Fragen: Wie soll mit dem nicht eliminierbaren Fehlerpotenzial von AI-CDSS umgegangen werden? Wer trägt die Verantwortung für falsche Entscheidungen, die auf Systemempfehlungen beruhen? Und wie verändert sich die Arzt-Patient-Beziehung, wenn solche Anwendungen benutzt werden? Diese und weitere ethische Fragestellungen, die bei der Verwendung der Systeme auftreten, wurden bereits einzeln und in Verbindung mit anderen ethischen Implikationen der Anwendungen untersucht. Jedoch ist die Zahl der Arbeiten, die AI-CDSS als Gruppe ethisch bewerten, bisher gering. Diese Bewertungen sind außerdem meist knapp gehalten und gehen wenig systematisch vor. Die vorliegende Arbeit greift zur systematischen ethischen Bewertung von AI-CDSS auf eine ethische Bewertungsmatrix für eHealth-Anwendungen zurück. Zunächst werden die Systeme, ihre Funktionsweise und ihre Charakteristika beschrieben. Die darauffolgende ethische Bewertung von AI-CDSS erfolgt anhand von zwölf ethischen Beurteilungskriterien: Funktionsfähigkeit, Nutzenpotenzial für die Patientinnen und Patienten, mögliche Alternativen, Schadenspotenzial für die Patientinnen und Patienten, Wahrung und Förderung der Patientenautonomie, Zuschreibbarkeit von Verantwortung beim Einsatz von AI-CDSS, Wahrung der Integrität der Arzt-Patient- Beziehung, Datenschutz und Datenverfügbarkeit, Effizienz und schließlich Gerechtigkeit. In der übergreifenden Bewertung werden die Einzelbewertungen zusammengeführt und gegeneinander abgewogen. Es wird dabei deutlich, dass die Anwendungen nicht kategorisch positiv oder negativ zu beurteilen sind, sondern dass deren ethische Evaluation von der jeweiligen Entwicklungs- und Nutzungsweise abhängt. Abschließend folgen ethisch begründete Empfehlungen zur Entwicklung und Anwendung von AI-CDSS sowie zur Schaffung dafür geeigneter Rahmenbedingungen., Applications from the field of artificial intelligence, mostly based on machine learning, are increasingly spreading in clinical decision support. Some of these systems support doctors by providing prognoses, diagnoses and therapeutic recommendations. They can also be referred to as artificial intelligence-based clinical decision support systems (AI-CDSS). As these applications support and influence clinical decision-making, they penetrate the core of medicine. This raises a number of ethical questions: How should the systems' potential for errors, which cannot be eliminated, be dealt with? Who bears responsibility for incorrect decisions based on the recommendations of AI-CDSS? And how is the doctor-patient relationship affected by the use of these systems? These and other ethical issues that arise when doctors utilize AI-CDSS have already been addressed individually and in conjunction with other ethical implications of the systems. However, there is still little work that evaluates AI-CDSS ethically as a whole. Moreover, these works are mostly of short length and not very systematic. This dissertation employs a structured ethical evaluation tool for eHealth applications to ethically evaluate AI-CDSS. First, the systems, their mode of operation and their characteristics are described. The subsequential ethical evaluation of AI-CDSS is based on twelve ethical evaluation criteria: functionality, potential benefits for patients, possible alternatives, potential harm for patients, preservation and promotion of patient autonomy, attributability of responsibility in the use of the systems, preservation of the integrity of the doctor-patient relationship, data protection and data availability, efficiency and finally justice. In the overarching evaluation, the individual assessments are synthesized and balanced against each other. It becomes evident that the ethical evaluation of AI-CDSS is neither categorically positive nor categorically negative, but contingent on how the systems are used. Lastly, ethically justified recommendations are provided for the development and application of AI-CDSS as well as for the creation of suitable framework conditions.
Künstliche Intelligenz, KI in der Medizin, Medizinethik, artificial intelligence-based clinical decision support systems, clinical decision support
Englich, Florian
2025
Deutsch
Universitätsbibliothek der Ludwig-Maximilians-Universität München
Englich, Florian (2025): KI-Systeme zur Unterstützung ärztlicher Entscheidungen: eine ethische Bewertung. Dissertation, LMU München: Medizinische Fakultät
[thumbnail of Englich_Florian.pdf]
Vorschau
PDF
Englich_Florian.pdf

1MB

Abstract

Anwendungen aus dem Bereich der Künstlichen Intelligenz, die insbesondere auf der Technologie des Maschinellen Lernens beruhen, breiten sich in der Medizin zunehmend im Gebiet der Entscheidungsunterstützung aus. Einige dieser Systeme unterstützen Ärzte, indem sie Diagnosen, Prognosen sowie Therapieempfehlungen abgeben. Diese Anwendungen können auch als artificial intelligence-based clinical decision support systems (AI-CDSS) bezeichnet werden. Indem die Systeme die klinische Entscheidungsfindung beeinflussen, dringen sie in den Kernbereich der Medizin und des ärztlichen Tuns und Denkens vor. In diesem Zusammenhang entstehen einige ethische Fragen: Wie soll mit dem nicht eliminierbaren Fehlerpotenzial von AI-CDSS umgegangen werden? Wer trägt die Verantwortung für falsche Entscheidungen, die auf Systemempfehlungen beruhen? Und wie verändert sich die Arzt-Patient-Beziehung, wenn solche Anwendungen benutzt werden? Diese und weitere ethische Fragestellungen, die bei der Verwendung der Systeme auftreten, wurden bereits einzeln und in Verbindung mit anderen ethischen Implikationen der Anwendungen untersucht. Jedoch ist die Zahl der Arbeiten, die AI-CDSS als Gruppe ethisch bewerten, bisher gering. Diese Bewertungen sind außerdem meist knapp gehalten und gehen wenig systematisch vor. Die vorliegende Arbeit greift zur systematischen ethischen Bewertung von AI-CDSS auf eine ethische Bewertungsmatrix für eHealth-Anwendungen zurück. Zunächst werden die Systeme, ihre Funktionsweise und ihre Charakteristika beschrieben. Die darauffolgende ethische Bewertung von AI-CDSS erfolgt anhand von zwölf ethischen Beurteilungskriterien: Funktionsfähigkeit, Nutzenpotenzial für die Patientinnen und Patienten, mögliche Alternativen, Schadenspotenzial für die Patientinnen und Patienten, Wahrung und Förderung der Patientenautonomie, Zuschreibbarkeit von Verantwortung beim Einsatz von AI-CDSS, Wahrung der Integrität der Arzt-Patient- Beziehung, Datenschutz und Datenverfügbarkeit, Effizienz und schließlich Gerechtigkeit. In der übergreifenden Bewertung werden die Einzelbewertungen zusammengeführt und gegeneinander abgewogen. Es wird dabei deutlich, dass die Anwendungen nicht kategorisch positiv oder negativ zu beurteilen sind, sondern dass deren ethische Evaluation von der jeweiligen Entwicklungs- und Nutzungsweise abhängt. Abschließend folgen ethisch begründete Empfehlungen zur Entwicklung und Anwendung von AI-CDSS sowie zur Schaffung dafür geeigneter Rahmenbedingungen.

Abstract

Applications from the field of artificial intelligence, mostly based on machine learning, are increasingly spreading in clinical decision support. Some of these systems support doctors by providing prognoses, diagnoses and therapeutic recommendations. They can also be referred to as artificial intelligence-based clinical decision support systems (AI-CDSS). As these applications support and influence clinical decision-making, they penetrate the core of medicine. This raises a number of ethical questions: How should the systems' potential for errors, which cannot be eliminated, be dealt with? Who bears responsibility for incorrect decisions based on the recommendations of AI-CDSS? And how is the doctor-patient relationship affected by the use of these systems? These and other ethical issues that arise when doctors utilize AI-CDSS have already been addressed individually and in conjunction with other ethical implications of the systems. However, there is still little work that evaluates AI-CDSS ethically as a whole. Moreover, these works are mostly of short length and not very systematic. This dissertation employs a structured ethical evaluation tool for eHealth applications to ethically evaluate AI-CDSS. First, the systems, their mode of operation and their characteristics are described. The subsequential ethical evaluation of AI-CDSS is based on twelve ethical evaluation criteria: functionality, potential benefits for patients, possible alternatives, potential harm for patients, preservation and promotion of patient autonomy, attributability of responsibility in the use of the systems, preservation of the integrity of the doctor-patient relationship, data protection and data availability, efficiency and finally justice. In the overarching evaluation, the individual assessments are synthesized and balanced against each other. It becomes evident that the ethical evaluation of AI-CDSS is neither categorically positive nor categorically negative, but contingent on how the systems are used. Lastly, ethically justified recommendations are provided for the development and application of AI-CDSS as well as for the creation of suitable framework conditions.