string(49) "assets/images/f/MM_Luetschg%20Verena-613d8aae.jpg"

KI im Gesundheitswesen – Gefahr oder Chance?

In Medizin und Pflege ist Künstliche Intelligenz längst eingezogen. Das weckt Bedenken. Die Molekularbiologin Dr. Verena Lütschg ist darauf spezialisiert, technologische Innovationen zu bewerten. Ihr Plädoyer: Richtig eingesetzt, fördert KI das Verhältnis zwischen Arzt und Patient.

Dr. Verena Lütschg

Die promovierte Molekularbiologin ist spezialisiert auf Wissensvermittlung sowie technologische Innovationen und deren gesellschaftliche Auswirkungen. Sie berät sowohl große Unternehmen als auch Start-ups und Universitäten. In ihrem Buch „Über morgen – Der Zukunftskompass“ (Heyne Verlag) führt sie die Leser durch den Dschungel der neuen Technologien und macht Mut und Laune, sich in die Diskussion um die Verwendung dieser Technologien einzuschalten.

Der Einsatz Künstlicher Intelligenz (KI) schreitet atemberaubend schnell voran, in allen Lebens­bereichen. Im Gesundheitssektor wirkt sich die Digitalisierung von Prozessen bereits jetzt auf Behandlungsentscheidungen aus. KI kann in kürzester Zeit enorme Datenmengen verknüpfen und analysieren. In der Medizin birgt dies das Potenzial, die Patientenversorgung zu verbessern. Zugleich weckt der Fortschritt aber auch Ängste, vor allem wegen möglicher negativer Auswirkungen auf die Arzt-Patienten-Beziehung: In einer ohnehin maschinenfixierten Medizin würde noch mehr „abgegeben“, der  Mensch würde immer weniger in seiner Ganzheit gesehen. Auch Dr. Verena Lütschg findet es wichtig, wachsam zu sein und die laufenden Veränderungen sensibel zu beobachten. Die Expertin für technologische Innovationen aus Zürich ist aber überzeugt: So lange der einzelne und die Gesellschaft die Entwicklung bewusst mitgestalten, kann KI in Prävention und Therapie eine enorme Bereicherung sein.

natürlich gesund und munter:

Frau Dr. Lütschg, wie sieht das Krankenhaus oder auch die Arztpraxis der Zukunft aus? Nehmen wir künftig in einer Mini-Klinik mit eingebauter KI Platz, um erst nach einem vollautomatisierten Check bestimmter Werte wie Herzfrequenz, Blutdruck und Puls durch einen Arzt beraten zu werden?

Dr. Verena Lütschg: Das ist mittelfristig durchaus vorstellbar. Bereits jetzt laufen europaweit in einigen Krankenhäusern Pilotprojekte, für die die Häuser in Richtung Smart Hospital umgebaut wurden. Hier unterstützen KI und sogenannte digitale Zwillinge, also digitale Kopien der Krankenhäuser, bei der Optimierung von Prozessen. In der Logistik und Verwaltung, und auch bei Diagnostik und Behandlung. So kann die Planung des Personaleinsatzes und bestimmter Abläufe von Maschinen übernommen werden, die mit einer Vielzahl von Daten gefüttert werden. In so ein Modell können zum Beispiel auch Wetterdaten mit einbezogen werden.

Wieso das?

Schauen Sie sich die letzten extremen Hitzesommer an. Wenn das System weiß, an welchen Tagen mit hohen Temperaturen zu rechnen ist, kann es sich für diesen Zeitraum auf den Personenkreis einstellen, der wahrscheinlich gehäuft in der Notaufnahme eintreffen wird.  

Mal angenommen, Sie müssten ins Krankenhaus und könnten wählen. Würden Sie sich für ein Smart Hospital entscheiden oder für ein Haus, das herkömmlich arbeitet?

Das erste. Das Personal wäre hier hoffentlich nicht so überfordert, wie es in Kliniken heute oft der Fall ist. Durch KI bekommen Mitarbeitende vieles abgenommen. Nehmen wir das Beispiel Herz-OP. Kein Klinik-Mitarbeiter müsste vorher wohl noch eine Checkliste durchgehen: sind die notwendigen Geräte im OP? Das hätte die KI längst erledigt. Ebenso das Zusammenführen aller relevanten Informationen in einer elektronischen Patientenakte. Dann bliebe für den Kontakt mit den Patienten mehr Zeit. Ein Pilotprojekt in Irland hat die positiven Auswirkungen des Einsatzes von KI auf Organisation und Prozesse bereits bestätigt, die Patientenzufriedenheit stieg, und es konnte viel Zeit eingespart werden. Nicht zuletzt kann das Behandlungssetting durch KI – über eine digitale Akte etwa – viel individueller auf den jeweiligen Patienten angepasst werden.

Was bedeutet das konkret?

Der Behandler würde eben mehr sehen als das akute Problem. Im Sinne einer ganzheitlichen Medizin ist das Big Picture ja oft hilfreich. Viele, die mit einer Erkrankung bei Fachärzten mehrerer Disziplinen waren, kennen das: Der Blick des jeweiligen Arztes aufs Geschehen ist zuweilen eingeschränkt. Erst durch das Zusammenbringen der Informationen kommt man weiter.

Aber hat ein guter Arzt nicht auch ohne KI den ganzen Menschen im Blick?

Einfühlungsvermögen und Erfahrungswissen sind natürlich generell sehr wertvoll. Doch nicht jeder Behandler hat die Fähigkeit, das Gegenüber so zu erfassen, dass in Sekundenbruchteilen eine gute Einordnung gelingt. Empathie und Einfühlungsvermögen sind dabei übrigens nur das eine. Vergessen wir nicht, das medizinische Fachwissen wächst exponentiell. Mitte des letzten Jahrhunderts hat sich dieses Wissen noch alle 50 Jahre verdoppelt. Im Jahr 2020 verdoppelte es sich schon alle 73 Tage! Da ist Überforderung programmiert.

Sie meinen, kein Mensch kann derart viele Informationen verarbeiten?

So ist es. Natürlich, der ganzheitliche Blick und ein feinfühliges Wahrnehmen bleiben auch im Smart Hospital wichtig. Idealerweise gehen hier zwei Dinge Hand in Hand: Noch vor dem Patientenkontakt ist der Behandler bestmöglich mit Informationen versorgt. Er hat Hinweise, wie der Patient tickt. Und dann, in der direkten Begegnung, wird dieses Grundgerüst durch die eigene Wahrnehmung ergänzt und gegebenenfalls korrigiert.

Glauben Sie nicht, dass ebenso das Gegenteil passieren kann, dass Behandler sich zu früh festlegen?

Wo Menschen arbeiten, kann das natürlich passieren. Welche Schlüsse werden aus dem gezogen, was die KI generiert hat? Das bewusste Agieren an dieser Schnittstelle ist zentral. Hier ist der einzelne gefordert – und dabei schaue ich nicht nur auf die Behandlerseite, sondern auch zum Patienten. Ist das stimmig, was ich hier erlebe? Diese Frage ist berechtigt und kann dazu führen, dass man sich lieber nochmal eine Zweitmeinung einholt oder gar den Arzt wechselt. Aber das sollte auch heute schon der Fall sein, wenn ich bei einer Diagnose ein komisches Gefühl habe.

Eine gute Reflexion der eigenen Bedürfnisse ist also das A und O bei der Navigation durch die moderne Gesundheitslandschaft?

Das und ein gewisses Grundverständnis der eingesetzten Technologien. Für mich kommen wir hier an einen wesentlichen Punkt in der Diskussion. Es stimmt, die Nutzung der neuen Technologien eröffnet uns neue, teils unglaubliche Möglichkeiten. Doch wir sollten nicht denken, dass KI tatsächlich intelligent ist. Was ist Intelligenz? Es gibt so viele verschiedene Formen. Kognitive Intelligenz, soziale Intelligenz … ein unfassbar vielschichtiges Feld. Solange wir hier noch so wenig klar sehen, sollten wir nicht zu viel erwarten, was Maschinen leisten können. Statt von künstlicher Intelligenz würde ich derzeit von maschinellem Lernen sprechen.

Welchen Unterschied versprechen Sie sich durch die Verwendung der anderen Begrifflichkeit?

Wenn wir von Intelligenz sprechen, sitzen wir leicht dem Irrglauben auf, Maschinen könnten uns Entscheidungen abnehmen. Maschinen haben aber bislang keine dem Menschen ähnliche Intelligenz. Maschinelles Lernen beschreibt, was sie derzeit können: Große Datenmengen verarbeiten, darin Muster erkennen und Wahrscheinlichkeiten berechnen.

Sie sprechen von freiwerdenden Ressourcen im ­medizinischen Alltag durch KI. Aber auch bei der Einführung der Waschmaschine wurde Entlastung versprochen. Das Gegenteil ist eingetreten.

Guter Punkt. Aber ich bin selbst Mutter eines Kleinkindes und, ehrlich gesagt, ziemlich froh, dass ich keine Windeln von Hand mehr auswaschen muss. Die Frage ist aber natürlich: Wie nutze ich die Zeit, die durch den Einsatz der Waschmaschine frei geworden ist? Spiele ich mit meinem Kind? Oder lasse ich mich von den sozialen Netzwerken berieseln? Das habe ich selbst in der Hand!

Kritiker sagen, KI liefere Ergebnisse, die teils schwer kontrollierbar seien. Eine echte Black Box also …

Künstliche Intelligenz lernt auf der Basis riesiger Datenmengen, mit denen sie trainiert wird. Das Ziel der Datenverarbeitung ist das Erkennen von Mustern. Je mehr Bilder von bösartigen Tumoren beispielsweise als Datensatz vorhanden sind, desto wahrscheinlicher ist es, dass die KI einen solchen Tumor im Verdachtsfall erkennt. Das ist jedenfalls positiv, denn selbst der erfahrenste Onkologe kommt mit seinem Erfahrungswissen an Grenzen, wenn er die zigtausend Bilder, die er vielleicht in seinem Leben gesehen hat, mit dem um ein vielfaches höheren Datensatz der Maschine vergleicht.

Aber selbst wenn ein KI-gesteuertes System maximal zuverlässig arbeitet: kann das System Mensch wirklich nach der Logik von Maschinen funktionieren?

Beispiel Rückenschmerzen: hoch spezielle ­Untersuchungen zeigen manchmal winzige Ver­änderungen, die als Erklärung dienen. Anderer-seits gibt es Millionen beschwerdefreie Menschen, ­deren Wirbelsäule grausig aussieht.  

Befund und Befinden scheinen manchmal nicht übereinzustimmen, das ist richtig. Andererseits: möglicherweise findet sich im bildgebenden Verfahren eine Information, die im Moment nicht oder noch nicht relevant ist. Eine Blockade macht vielleicht erst dann Beschwerden, wenn eine andere Schwachstelle hinzukommt. Eine starke Muskulatur kann so manches ausgleichen. Tatsächlich kann die Gefahr bestehen, dass man in eine Überdiagnose reinrutscht. Eben dafür ist es ja so wichtig, nicht nur diese Bilder zu kennen, sondern sie als eine Teilinformation zu sehen, die in ein größeres Ganzes eingebettet gehören. Ohnehin stehen viele Systeme am Anfang, müssen verbessert werden.

Welche Probleme treten auf?

Ein Problem ist die Datenverzerrung. Wird die Maschine beispielsweise vor allem mit Daten einer Ethnie gefüttert, kann es sein, dass sie Ergebnisse liefert, die für eine andere Ethnie nicht zutreffen. Man weiß zum Beispiel, dass Afroamerikaner anders auf gewisse Medikamente reagieren als Menschen kaukasischen Ursprungs. Dazu kommt das so genannte Korrelation-Kausalitäts-Problem: Hier bringt das System zwei Datensätze oder Faktoren in Zusammenhang, die im Grunde nichts miteinander zu tun haben.

Können Sie ein Beispiel nennen?

Ein heißes, sonniges Wochenende. An beiden Tagen wird deutlich mehr Eiscreme verkauft als sonst. Und an beiden Tagen leiden die Menschen vergleichsweise oft an einem Sonnenbrand. Das heißt aber nicht, dass die Eiscreme den Sonnenbrand verursacht. Die beiden Faktoren entwickeln sich miteinander, es gibt aber keine direkte Kausalität.

Und solche Zufälle führen bei einer KI möglicher- weise zu falschen Ergebnissen, meinen Sie?

Das Phänomen ist bei Big Data häufig ein Problem, und Big Data ist wichtig für das Trainieren einer KI. Hier sind die Entwickler der KI gefragt.

Was ist mit möglichen Sicherheitslücken?

Grundsätzlich sind die Zulassungsprozesse in Europa und auch in vielen anderen Ländern sehr solide. Aber natürlich müssen wir sicherstellen, dass diese Prozesse mit der technologischen Entwicklung schritthalten. Ganz generell halte ich es mit der Empfehlung des Deutschen Ethikrates: eine Maschine darf nicht über das Schicksal eines Menschen entscheiden, die finale Entscheidung muss immer ein Mensch treffen, die Maschine liefert lediglich eine Entscheidungshilfe. Und: die KI soll uns weiterbringen, uns stärken. Informationen, die schwächen oder demoralisieren, sind fragwürdig.

Was kann die Gesellschaft, was kann der einzelne tun?

Wir brauchen den breiten, gesellschaftlichen Diskurs, müssen über die Risiken und die Chancen der Neuerungen sprechen und über Grenzgebiete, in denen unsere Gestaltungskräfte besonders gefragt sind. Die Technologie an sich ist weder gut noch schlecht. Sie ist ein Produkt unserer Entscheidungen und unseres Designs.

Aber der einzelne scheint da kaum Einfluss zu haben.

Dem würde ich widersprechen. Einfluss beginnt für mich ab dem Moment, wo ich mir Entwicklungen bewusst mache. Dafür brauche ich ein gewisses Verständnis der Technologie. Das heißt nicht, dass ich eine KI programmieren können muss, aber ich sollte die grundlegende Funktionsweise verstehen, um mir eine Meinung zu Chancen und Risiken zu bilden. Ich kann mich in Debatten einbringen. In Bürgerräten, Foren.

Klingt, ehrlich gesagt, ziemlich aufwändig …

Eigenverantwortung beginnt mit einem guten Arzt-Patienten-Verhältnis. Nehmen wir die moderne Herzchirurgie. Herzchirurgen können heute vor Operationen anhand eines digitalen Zwillings den geplanten Eingriff virtuell durchspielen. Der Patient kann am Bildschirm bis ins Detail sehen, was während der OP passiert. Für mich ein positives Beispiel für mehr Teilhabe durch KI: Viele Patienten gehen deutlich ruhiger in die OP, wenn sie entsprechend vorbereitet sind. Und Ruhe und Zuversicht können bekanntlich Heilungsprozesse fördern.

KI kann also das Arzt-Patienten-Verhältnis fördern?

Ja – wenn bei beiden Seiten die Bereitschaft da ist. Gerade im medizinischen Kontext begeben sich immer mehr Menschen in eine Art Konsumentenverhalten. Sie wollen mitsprechen, aber keine Verantwortung übernehmen. Ein Stück weit verstehe ich es, wenn man aus einem reflexartigen Impuls sagt:  Das wird mir alles zu viel, ich steige aus.

Schon lange gibt es Kritik, die Medizin hätte sich stark von Menschen wegbewegt, hin zu Technik, zu Apparaten. Wird die Entfremdung in der Medizin durch die Digitalisierung nicht noch beschleunigt?

Ich verstehe, was Sie mit Entfremdung meinen. Aber das ist allenfalls nur eine Seite der Medaille. Vergessen wir nicht: das Arzt-Patienten-Verhältnis hat sich in den vergangenen Jahrzehnten stark gewandelt. Weg vom dozierenden Halbgott in Weiß hin zum Berater, der auf Augenhöhe kommuniziert. Ich bin sicher, dass sich diese konstruktive Entwicklung durch die reflektierte Einbeziehung von KI weiter ausbauen lässt. Stichwort Black Box: Es wird bereits intensiv an einer „erklärbaren KI“ geforscht, die ihre Resultate begründen kann. Das kommt nicht von ungefähr. Hinter der Idee stecken Menschen, die sowas wichtig finden.
/ Das Gespräch führte Elisabeth Hussendörfer

Diesen Beitrag finden Sie in unserem Magazin natürlich gesund und munter 06/2023