Frauen werden in der medizinischen Versorgung zu oft benachteiligt. Ein Problem, das Künstliche Intelligenz noch verstärken kann. Richtig programmiert ist KI in der Medizin jedoch ein effektives Werkzeug, um diese gerechter zu machen. Und damit besser für alle.
Präziser als medizinische Fachkräfte, eine Entlastung für das Gesundheitssystem: Mit solchen Versprechen bewarb das britische Unternehmen Babylon Health seine gleichnamige App. Gestützt von Künstlicher Intelligenz (KI) sollte diese Menschen anhand ihrer Symptome an die richtige Ärztin oder den passenden Arzt vermitteln. Das erste „Gespräch“ übernahm dabei ein Chatbot. Dessen Aufgabe: Bei unkomplizierten Beschwerden auf Hausmittel verweisen, in schwierigeren Fällen eine Videosprechstunde anbieten. Im Jahr 2019, da nutzten bereits über 4 Millionen Menschen weltweit die App, meldete ein Arzt jedoch Bedenken an: Der Chatbot sei voreingenommen. Der Arzt hatte mit der App verschiedene Szenarien durchgespielt. Darunter: plötzliche Schmerzen in der Brust und Übelkeit. Dabei hatte er sich einmal als Mann, einmal als Frau vorgestellt. Mit überraschendem Ergebnis: Dem Mann nannte der Algorithmus als mögliche Diagnosen eine Panikattacke, eine Gastritis aber auch mehrere Herzprobleme, darunter einen Herzinfarkt. In diesem Fall müsse sofort ein Krankenwagen gerufen werden, so der Chatbot. Für die Frau hingegen präsentierte er für dieselben Beschwerden nur zwei mögliche Ursachen: Depression oder Panikattacke. Im ersten Fall sei die Hausärztin zu konsultieren. Die Panikattacke ließe sich auch zu Hause in den Griff bekommen.
KI in der Medizin kann Vorurteile und Ungerechtigkeit verstärken
Künstliche Intelligenz ist eine Schlüsseltechnologie. Schon heute verändert sie das Gesundheitswesen und die Forschung. Mit der nötigen Menge entsprechender Bilddaten trainiert, wertet sie Röntgenaufnahmen und CT-Scans aus und findet krankhafte Veränderungen. Dabei ist sie in der Regel schneller und präziser als ein radiologisch trainiertes menschliches Auge. Indem sie die Strukturen hunderttausender Moleküle vergleicht, findet sie Zusammensetzungen für neue Medikamente und sagt deren Wirkung vorher. „Mit diesen und unzähligen anderen Anwendungen macht KI die Versorgung schneller, günstiger und dennoch besser“, sagt die Barmer-Digitalkoordinatorin Maria Hinz. Hinz ist bei der Krankenkasse für übergreifende Fragen zur Digitalen Transformation und der damit verbundenen unternehmerischen Verantwortung (Corporate Digital Responsibility, kurz CDR) zuständig. „Die Voraussetzung, um KI verantwortungsvoll in Medizin und Forschung einzusetzen, ist jedoch eine solide Datenbasis.“ Die Daten, auf denen KI-Systeme basieren, sind aber nicht immer ausgewogen. Zu oft bilden sie bestehende Vorurteile und Ungerechtigkeiten aus der Lebenswelt ab. Die Leidtragenden können Frauen und Minderheiten sein.
Gender Gap: Männlich geprägte Forschung, männlich geprägte Daten
Der Mann muss ins Krankenhaus, die Frau kann zuhause bleiben: Der Fall des Babylon Health Chatbots zeigt eine derartige Verzerrung im System, einen sogenannten Bias. Wie genau dieser zustande kam, ist nicht klar. Bei einer Patientin mit Herzinfarkt hätte der Bias jedoch schlimmstenfalls die dringend nötige Behandlung verzögern können – vielleicht mit folgenschweren Konsequenzen. „Eine voreingenommene KI kann für Frauen reale gesundheitliche Folgen haben“, sagt Dr. Carina Vorisek, wissenschaftliche Mitarbeiterin am Berlin Institute of Health der Charité. Vorisek ist Expertin für KI und Forschungsdaten. „Die Daten in Medizin und Forschung sind jedoch sehr männlich geprägt – ein echtes Problem.“
Frauen wurden bei der Entwicklung neuer Medikamente zu wenig berücksichtigt
Lange war die medizinische Forschung männlich dominiert. Frauen wurden von dieser als kleinere, leichtere Männer betrachtet. Dies spiegelte sich auch in Krankenhäusern, Universitätskliniken und Laboren wider. Krankenschwestern und anderes weibliches Personal übernahmen die Patientenversorgung, weibliche Führungskräfte – egal ob Ärztinnen, Pflegekräfte oder in der Verwaltung – gab es kaum. In der Grundlagenforschung oder bei der Entwicklung neuer Arzneimittel blieben zum Beispiel die unterschiedliche Verteilung des Körperfettgewebes, des Zellvolumens oder des Hormonhaushalts bei Männern und Frauen weitestgehend unberücksichtigt. Dazu kam, dass Frauen im gebärfähigen Alter nach dem Contergan-Skandal in den Sechzigerjahren für über ein Jahrzehnt nicht mehr an medizinischen Studien teilnehmen durften.
Ihr Newsletter für ein gesünderes Leben
Jetzt unverbindlich anmelden und monatlich Gesundheitsthemen mit wertvollen Tipps erhalten und über exklusive Barmer-Services und -Neuigkeiten informiert werden.
Newsletter abonnieren
Frauen fehlen in medizinischen Studien
„Zwar ist die Teilnahme von Frauen an Studien in den USA und der EU mittlerweile sogar gesetzlich vorgeschrieben“, so Vorisek. „Doch die Datenlage wird nur langsam besser. Es fehlt an Bewusstsein für das Thema.“ Bestes Beispiel: eine Medikamentenstudie von 2016. Da testete ein Hersteller in den USA einen dezidiert für Frauen mit sexueller Funktionsstörung entwickelten Wirkstoff auf dessen Wechselwirkung mit Alkohol – an 23 Männern und nur zwei Frauen . Und eine 2021 veröffentliche Vergleichsstudie ergab, dass von den zu Covid-19 durchgeführten klinischen Studien nur 18 Prozent auch Geschlechter-Unterschiede berücksichtigten. Dabei sind diese Unterschiede durchaus bekannt. „Dass Frauen in klinischen Studien nach wie vor unterrepräsentiert sind, führt unter anderem dazu, dass Symptome, die sich bei Frauen von denen der Männer unterscheiden, zu wenig beachtet werden“, sagt die Digitalexpertin Maria Hinz. „Es beeinträchtigt die Qualität der Gesundheitsversorgung für Frauen.“ Mehr weibliche Probandinnen zu integrieren, würde es bei manchen Studien zunächst einmal komplizierter machen, diese auszuwerten. „Bei manchen Medikamenten beeinflusst beispielsweise der Zyklus die Wirkung“, so Hinz. Das grundsätzliche Verständnis, wie Arzneimittel wirken, würde sich dadurch jedoch verbessern. Ein Aspekt, von dem letztlich alle Geschlechter profitieren.
Weiblich, männlich oder divers? In Medizin und Forschung kann das über die Gesundheit eines Menschen entscheiden. Eine gerechte Versorgung berücksichtigt deshalb die biologischen, psychischen und sozialen Unterschiede. Dafür setzt sich die Barmer mit ihrer Kampagne #Ungleichbehandlung ein. Mehr zum Thema geschlechtssensible Medizin lesen Sie hier: www.barmer.de/ungleichbehandlung
Künstliche Intelligenz in der Medizin: Algorithmen übernehmen verzerrtes Bild der Realität
Eine KI ist erstmal unvoreingenommen. Sie ist aber auch nur so schlau wie der Datensatz, mit dem sie trainiert wird. Zeigen die Daten ein verzerrtes Bild der Realität, wird die KI dieses nicht nur übernehmen. Sie kann es auch verstärken. In ihrem Buch „Unsichtbare Frauen“ zitiert die Journalistin Caroline Criado-Perez eine Studie, die genau das untersucht hat. Der zugrundeliegende Datensatz enthielt Bilder kochender Menschen, davon 33 Prozent mehr Frauen als Männer. In Folge ordnete der Algorithmus jedes Bild einer Küche mehr als doppelt so oft (68 Prozent) dem Attribut „Frau“ zu. Er ging aber noch weiter: Einen glatzköpfigen korpulenten Mann identifizierte der Algorithmus ebenfalls als „Frau“, weil dieser am Herd zu sehen war.
Es wäre an den Firmen und Forschenden, solche Verzerrungen von vornherein auszuschließen: Schwache Daten lassen sich prüfen und gegebenenfalls bereinigen oder aufwerten. Manchmal sitzt der Bias aber nicht nur im System, sondern auch in der Organisation, die dieses programmiert oder damit arbeitet. Was dabei herauskommt, wenn neue Anwendungen beispielsweise von überwiegend männlichen Teams erdacht werden, zeigte die Premiere von Apples Gesundheits-App Health 2014. Mit der App ließen sich Schritte zählen, der Blutdruck, Kalorien und Schlaf tracken – aber nicht die Periode. Dafür gab es Kritik. Apple besserte im Jahr darauf nach.
Corporate Digital Responsibility: Verantwortungsvoller Umgang mit sensiblen Gesundheitsdaten bei der Barmer
Unternehmen sind hier in der Verantwortung. Bei der Barmer gibt es dafür ein starkes Bewusstsein, sagt Maria Hinz: „Derzeit sind wir dabei, unsere Daten für die Arbeit mit KI aufzubereiten. Wenn zum Beispiel unser Institut für Gesundheitssystemforschung (bifg) Daten auswertet, fragen wir uns: Wie gut ist die Datenqualität? Diese hängt nämlich auch davon ab, wie beispielsweise Diagnosen im ambulanten Bereich erfasst werden. Eine Verzerrung könne zum Beispiel entstehen, wenn Frauen mit Schlafstörungen oder unklaren Bauch- und Rückenschmerzen in die Arztpraxis kommen. „Nicht immer können diese Beschwerden direkt mit der Menopause in Verbindung gebracht werden.“, so Hinz. Die eigentliche Ursache tauche dann eben oft nicht in den Daten auf.
Gendersensible KI kann geschlechtsspezifische Verzerrungen in klinischen Studien korrigieren
Die Barmer nutzt KI-Vorstufen intern bislang nur in Bereichen wie der Rechnungsprüfung. Langfristig wolle die Krankenkasse diese aber auch für die Prävention einsetzen, um Risikofaktoren zu erkennen oder um Services für die Versicherten zu individualisieren, so Hinz. „Dafür erarbeiten wir bereits spezielle ethische Leitlinien, um einen verantwortungsvollen Umgang sicherzustellen.“ Und weil Männer auf manche Gesundheitsthemen anders schauen als Frauen, setzt die Barmer auf diverse Entwicklungsteams: „Hier geht es um Intersektionalität: Wir brauchen nicht nur Frauen sondern auch Menschen mit Behinderung, People of Color und verschiedene weitere Perspektiven“, so Hinz. „Gesundheit und Medizin betrifft alle. Und wer selbst betroffen ist, hat es viel einfacher, den entsprechenden Blickwinkel einzubringen.“ Das bestätigt Carina Vorisek: „Es ist wissenschaftlich bewiesen: Je diverser die Teams sind, desto näher an den Nutzenden sind dann auch die Anwendungen.“ Ein praktisches Beispiel für eine gendersensible KI präsentierten 2022 zwei Wissenschaftlerinnen vom Technion, dem Israelischen Institut für Technologie. Sie entwickelten einen Algorithmus, der geschlechtsspezifische Verzerrungen in klinischen Studien korrigiert – und damit bessere Voraussetzungen schafft, um Frauen zu behandeln.
- TechCrunch (Abruf vom 11.04.24): Babylon Health confirms $550M raise at $2B+ valuation to expand its AI-based health services
- X (Abruf vom 11.04.24): Dr Murphy (aka David Watkins)
- Public Technology (Abruf vom 11.04.24): Gender bias concerns raised over GP app
- Sex-specific serum biomarker patterns in adults with Asperger’s syndrome; Molecular Psychiatry (2010), 1–8; 1359-4184/10
- Clayton JA. Studying both sexes: a guiding principle for biomedicine. FASEB J. 2016 Feb;30(2):519-24. doi: 10.1096/fj.15-279554. Epub 2015 Oct 29. PMID: 26514164; PMCID: PMC4714546
- Yale School of Medicine (Abruf vom 11.04.24): Popular Heart Failure Drug May be Dangerous for Women, Yale Researchers Report
- Erin M. Dooley, Melanie K. Miller, Anita H. Clayton, Flibanserin: From Bench to Bedside, Sexual Medicine Reviews, Volume 5, Issue 4, 2017, Pages 461-469, ISSN 2050-0521, https://doi.org/10.1016/j.sxmr.2017.06.003
- Emer Brady, Mathias Wullum Nielsen, Jens Peter Andersen, Sabine Oertelt-Prigione: Lack of consideration of sex and gender in COVID-19 clinical studies. Nature Communications, https://www.doi.org/10.1038/s41467-021-24265-8, veröffentlicht am 6. Juli 2021
- Universität Bielefeld: Studie belegt mangelnde Berücksichtigung von Geschlecht und Gender in klinischen Studien zu Covid-19 (Nr. 50/2021), Veröffentlicht am 7. Juli 2021
- Bitkom (Abruf vom 11.04.24): Tech-Branche will mehr Frauen gewinnen
- brand eins (Abruf vom 11.04.24): Frauen in der IT-Branche. Geht doch
- State of European Tech (Abruf vom 11.04.24): State of D&I in European Tech
- New Scientist (Abruf vom 11.04.24): Voice assistants seem to be worse at understanding commands from women
- Fraunhofer Institut (Abruf vom 11.04.24): Künstliche Intelligenz im Gesundheitsbereich: Ein Überblick
- Healthcare in Europe (Abruf vom 11.04.24): Machine learning fixes gender bias in clinical trials
Fake News im Faktencheck
Fake News und Gesundheitsmythen: Hilft Zitronenöl gegen Mikroplastik im Körper?
Nächstes Thema