Gesundheit
Gesundheits-Algorithmus unter Rassismusverdacht
Freitag, 8. November 2019
Die Behandlung von Patienten wird im Gesundheitswesen zunehmend von Algorithmen bestimmt. Ob Patienten ein Lipidsenker oder ein Hochdruckmedikament verordnet wird, hängt nach den aktuellen US-Leitlinien nicht mehr primär vom LDL-Cholesterin oder dem gemessenen Blutdruck ab. Ausschlaggebend ist das 10-Jahres-Risiko für Herz-Kreislauf-Erkrankungen. Der Risikokalkulator ist eine relativ einfache und nachvollziehbare Variante eines Algorithmus.
Es gibt aber zunehmend Programme, die für die Anwender nicht mehr transparent sind. So mögen sich die Ärzte einer Uniklinik in Boston vielleicht gewundert haben, warum ihr Stationscomputer häufiger weiße als afrokamerikanischen Patienten für ein „High Risk Care Management“ auswählte. Es handelt sich um spezielle Programme, die beispielsweise Diabetiker vor den Spätkomplikationen der Erkrankung schützen sollen. Den Ärzten war aus ihrer klinischen Erfahrung vielleicht bewusst, dass Afroamerikaner häufiger unter hohen Blutzuckerwerten und anderen Komponenten des metabolischen Syndroms leiden. Für die Risikovorsorge wurden sie dennoch seltener ausgewählt.
Den Grund hat ein Team um Sendhil Mullainathan von der Universität Chicago in einer Studie ermittelt. Der Algorithmus war nicht primär programmiert worden, um Patienten europäischer Herkunft zu bevorzugen (was mathematisch natürlich leicht machbar wäre). Zur rassistischen Verzerrung war es gekommen, weil der Hersteller es sich bei der Programmierung des Algorithmus zu einfach gemacht hatte. Als Grundlage waren die früheren Gesundheitskosten des Patienten ausgewählt worden. Diese sind bei sozial benachteiligten Patienten (entgegen weitverbreiteter Vorurteile) häufig geringer, da sie seltener zum Arzt gehen und schwerer für Behandlungen zu motivieren sind, die ihren Gesundheitszustand verbessern.
Der Algorithmus verstärkt diese Tendenz im Sinn einer sich selbst erfüllenden Prophezeiung: Wer bei gleichem Risiko vor der Untersuchung weniger medizinische Dienstleistungen in Anspruch genommen hatte, dem wurden sie vom Algorithmus später seltener angeboten. Die Patienten werden dadurch doppelt benachteiligt und auch für den Kostenträger zahlt sich die Diskriminierung nicht aus, weil sie eine Gruppe selektioniert, die am Ende die höchsten Folgekosten erzeugt.
Die US-Forscher konnten die Schieflage erkennen, weil ihnen der Hersteller Einblick in den Algorithmus gewährt hatte. Nach einer Umprogrammierung stieg der Prozentsatz der afrokamerikanischen Patienten, die ein Risikomanagement erhielten, von 17,7 auf 46,5 Prozent an.
Es ist nicht selbstverständlich, dass die Hersteller sich in die Karten sehen lassen. Der Algorithmus ist oft die wirtschaftliche Grundlage ihres Unternehmens und die Angst vor einem geistigen Diebstahl groß. Noch schwieriger wird es, wenn der Algorithmus von einer künstlichen Intelligenz entwickelt wurde. Dann wissen auch die Programmierer nicht mehr, welche Faktoren in die Berechnungen einbezogen wurden.
Zwei Lösungen bieten sich an. Zum einen könnte eine „soziale“ Kontrolle der Algorithmen erfolgen. Sie müsste sicherstellen, dass alle gesellschaftlichen Gruppen gleichermaßen von den aufgelegten Programmen profitieren. Die zweite Lösung wäre eine Kosten-Nutzen-Analyse. Dabei geht es für die Kassen um die Frage, ob ein Algorithmus tatsächlich durch die Vermeidung von Folgekrankheiten einen Einspareffekt erzielt.
Kommentare
Die Kommentarfunktion steht zur Zeit nicht zur Verfügung.