Die Integration von künstlicher Intelligenz (KI) in Gesundheitssysteme hat versprochen, medizinische Prozesse zu rationalisieren, aber eine aktuelle Studie unter der Leitung von Forschern der Stanford School of Medicine hat Bedenken hinsichtlich möglicher rassistischer Voreingenommenheit in beliebten KI-Chatbots geweckt.
Während KI-Chatbots wie ChatGPT und Bard von Google zunehmend eingesetzt werden, um Gesundheitsdienstleister bei der Zusammenfassung von Arztberichten und der Analyse von Krankenakten zu unterstützen, warnt die Studie davor, dass diese Chatbots möglicherweise rassistische und entlarvte medizinische Vorstellungen weiterverbreiten. Dies hat Befürchtungen geweckt, dass sie die gesundheitlichen Ungleichheiten, insbesondere für schwarze Patienten, verschärfen könnten.
Rassistische Vorurteile in KI-Chatbots
Die Studie ergab, dass KI-Chatbots, darunter ChatGPT und Bard von Google, bei medizinischen Fragen zu schwarzen Patienten ungenaue Informationen lieferten. Auf die Frage nach den Unterschieden in der Hautdicke zwischen Schwarzen und Weißen gaben die Chatbots beispielsweise falsche Informationen über nicht existierende Unterschiede wieder.
Auch bei der Frage, wie die Lungenkapazität eines Schwarzen zu berechnen ist, stellten die Chatbots falsche Behauptungen über biologische Ungleichheiten auf, die es nicht gibt.
Auswirkungen in der realen Welt und gesundheitliche Ungleichheiten
Das Fortbestehen solcher rassistischen Vorurteile in KI-Chatbots kann spürbare Folgen haben. Die Voreingenommenheit von Ärzten, die durch ungenaue KI-Informationen genährt wird, hat in der Vergangenheit zu niedrigeren Schmerzbewertungen für schwarze Patienten, Fehldiagnosen von Gesundheitsproblemen und Empfehlungen für weniger Linderung geführt. Die Studie unterstreicht, dass diese Vorurteile die seit langem bestehenden gesundheitlichen Ungleichheiten für Schwarze aufrechterhalten könnten.
Reaktion der Industrie und laufende Forschung
Als Reaktion auf die Studie haben sowohl OpenAI als auch Google die Notwendigkeit anerkannt, Verzerrungen in ihren KI-Modellen zu reduzieren. Sie betonen, dass Chatbots nicht als Ersatz für medizinisches Fachpersonal angesehen werden sollten und dass die Nutzer sich nicht auf sie verlassen sollten, wenn es um medizinische Beratung geht. Darüber hinaus erforschen Gesundheitsdienstleister und Technologieunternehmen den Einsatz von KI im klinischen Umfeld, wobei einige Tools bereits in Pilotprojekten eingesetzt werden.
Die Stanford University wird Ende Oktober eine „Red Teaming“-Veranstaltung ausrichten, bei der Ärzte, Datenwissenschaftler und Ingenieure von Unternehmen wie Google und Microsoft zusammenkommen werden, um Fehler und potenzielle Verzerrungen in großen Sprachmodellen zu identifizieren, die für Aufgaben im Gesundheitswesen verwendet werden. Diese Initiative unterstreicht das Engagement für die Verbesserung der Fairness und Genauigkeit von KI-Tools im Gesundheitswesen.
Ethische und gerechte KI im Gesundheitswesen sicherstellen
KI-Chatbots haben sich zwar als vielversprechend für die Unterstützung von Gesundheitsdienstleistern erwiesen, doch die Ergebnisse der Studie unterstreichen, wie wichtig es ist, Verzerrungen und Ungenauigkeiten in diesen Modellen zu beseitigen.
Da die Gesundheitsbranche weiterhin KI einsetzt, ist es von entscheidender Bedeutung, Fairness, Gleichberechtigung und Sicherheit in den Vordergrund zu stellen, um sicherzustellen, dass diese Instrumente keine schädlichen Stereotypen aufrechterhalten oder gesundheitliche Ungleichheiten verschärfen. Ziel ist es, KI-Systeme zu entwickeln, die nicht nur medizinische Prozesse rationalisieren, sondern auch zu einer gerechten und unparteiischen Gesundheitsversorgung für alle beitragen.