Was passiert, wenn eine Software Bewerberinnen benachteiligt, unterschiedliche Hauttöne von Gesichtserkennungssystemen unterschiedlich gut erkannt werden oder Bonitätsprüfungsprogramme ältere Menschen von vornherein ausschließen? Vorurteile seitens der Entwicklerinnen und Entwickler und innerhalb der Trainingsdaten können dafür sorgen, dass Menschen diskriminiert werden.
Dr. Justyna Stypińska ist Soziologin und forscht zu verschiedenen Formen algorithmischer Diskriminierung und Voreingenommenheit in KI-Technologien. Sie arbeitet beim Wissenschaftszentrum für Sozialforschung für das internationale Forschungsprojekt „AI Ageism: new forms of age discrimination and exclusion in the era of algorithms and artificial intelligence“ (KI Altersdiskriminierung: neue Formen der Altersdiskriminierung und Ausgrenzung im Zeitalter von Algorithmen und Künstlicher Intelligenz). Wir haben ihr daher einige Fragen gestellt:
Wie können ältere Menschen aus Ihrer Perspektive von KI-Systemen profitieren?
Es gibt zahlreiche Möglichkeiten, wie ältere Menschen von den verschiedenen KI-Systemen profitieren können, die bereits verfügbar sind oder in Zukunft entwickelt werden. Sie können von dieser Technologie genauso profitieren wie jüngere Menschen. Zunächst einmal sehe ich ältere Menschen jedoch nicht als spezielle Zielgruppe, sondern als alltägliche Nutzerinnen und Nutzer aller Arten von Technologien, die unabhängig vom Alter genutzt werden können. Ältere Menschen werden manchmal als Nachzügler bei der Technologieanpassung angesehen, aber das stimmt nicht. Sie können von jedem System profitieren – von Dating-Apps über ChatGPT bis hin zu persönlichen Assistenten oder Lebensmittel-Liefersystemen.
Natürlich gibt es auch KI-Produkte, die speziell auf die Bedürfnisse älterer Menschen zugeschnitten sind – sei es im Pflegebereich (Sturzerkennungssysteme) oder im Gesundheitsbereich (Überwachungsgeräte). KI-basierte Geräte erfüllen eine Vielzahl von Funktionen, darunter Rehabilitation, soziale Interaktion, Begleitung und Unterstützung, kognitives Training, Alarmierung und Überwachung. Wichtig dabei ist: Nicht alle älteren Menschen müssen sie nutzen.
Einen besonderen Vorteil für ältere Menschen sehe ich in KI-Systemen, die uns den Alltag erleichtern. Ein Beispiel dafür ist eine Diktierfunktion auf einem Telefon oder Computer, die für viele Menschen, die nicht viel am Telefon oder Computer tippen wollen, sehr nützlich sein kann. Dies geschieht durch ein Spracherkennungssystem, das in vielen Anwendungen integriert ist. ChatGPT kann beim Verfassen von E-Mails oder formellen Briefen sowie beim Übersetzen von Texten sehr nützlich sein.
Worin sehen Sie bei KI-Systemen Gefahren hinsichtlich der Diskriminierung älterer Menschen?
Es gibt bereits Beispiele dafür, dass einige der KI-Systeme für ältere Menschen nicht gut funktionieren. Die Beispiele aus der Forschung zeigen zum Beispiel, dass Gesichtserkennungssysteme oder Systeme zur Erkennung von Emotionen bei Erwachsenen über 60 Jahren nicht gut funktionieren. Der Grund dafür ist, dass die Daten, die zum Trainieren dieser Systeme verwendet wurden, nicht genügend Bilder von älteren Erwachsenen enthielten. Andere Beispiele sind altersbedingte Verzerrungen und Stereotypen durch Bilder, die von KI-Systemen (wie DALL-E oder Stable Diffusion) erzeugt werden, in denen ältere Menschen entweder als sehr traurig oder sehr glücklich oder beispielsweise als vergesslich dargestellt werden. Diese Beispiele zeigen, dass Altersdiskriminierung und Altersstereotypen in den KI-Systemen vorhanden sind und ihre Verwendung diese Stereotypen in der Gesellschaft verstärken könnte.
Können Sie uns Beispiele nennen, wie ältere Menschen durch KI-Systeme diskriminiert werden können?
Das ist eine ausgezeichnete Frage – denn nicht jede technische Verzerrung in der KI wird sich in Diskriminierung im „echten Leben“ niederschlagen. Was wir bereits über Fälle von Diskriminierung älterer Erwachsener berichten können, ist, dass es einen gemeldeten Fall an die Antidiskriminierungsstelle des Bundes in Deutschland gab: Eine Frau beschwerte sich, dass sie diskriminiert wurde, weil sie für Online-Einkäufe nicht „auf Rechnung“ bezahlen konnte. Das System ließ das nicht zu und die Erklärung war, dass sie eine Frau und über 40 war. Der Fall wurde von Algorithm Watch beschrieben, aber es wurde keine Abhilfe gefunden. Es gab einige weitere Fälle, in denen ältere Menschen entweder einzeln oder als Mitglieder von Gruppen diskriminiert wurden, aber die Zahl dieser Fälle ist immer noch relativ gering. Ich denke, der nächste Schritt im Kampf gegen die algorithmische Diskriminierung besteht darin, Daten auch von älteren Personen zu sammeln, die möglicherweise diskriminiert wurden, und vor allem das Bewusstsein für die Möglichkeit einer solchen Diskriminierung zu schärfen.
Was ist nötig für diskriminierungsarme KI?
Um KI-Systeme so zu entwickeln, dass sie nicht diskriminieren, gibt es mehrere Ansätze, die verfolgt werden können. Einer der wichtigsten scheint die Erstellung von Datenbanken zu sein, die Daten von älteren Erwachsenen und über ältere Erwachsene enthalten. Zweitens müssen die Systeme auf Voreingenommenheit getestet (auditiert) werden, das heißt, im Falle von KI-Systemen, die in der öffentlichen Verwaltung eingesetzt werden, müssen sie nachweisen, dass sie in keiner Weise nach Alter, Geschlecht oder ethnischer Zugehörigkeit (un anderen Merkmalen) diskriminiert werden. Und drittens denke ich, dass es am wichtigsten ist, sich bewusst zu machen, dass sie diskriminierend, stereotyp oder exklusiv sein könnten.
Ein gesunder kritischer Ansatz gegenüber den Ergebnissen von KI-Systemen könnte hilfreich sein. KI wird sich durchsetzen und kann in vielen Bereichen unglaubliche Fortschritte bringen, da bin ich mir absolut sicher, aber es muss einen Watchdog (Wachhund) für diese Systeme geben, und ich freue mich, dass die Europäische Union Schritte unternimmt, um die europäischen Bürger vor Schäden durch KI zu schützen.
Weitere Informationen
Diskriminierung melden
Antidiskriminierungsstelle des Bundes
Zum Einstieg
Antidiskriminierungsstelle des Bundes: KI und Diskriminierung (Video)
Digital mobil im Alter/Stiftung Digitale Chancen: Diskriminierung, Stereotype und Biases in der KI
Algorithm Watch: Was tun, wenn Algorithmen diskriminieren? Ein Ratgeber von AutoCheck
Zum Vertiefen
Körber-Stiftung: Podiumsdiskussion: Wenn Algorithmen Oma mobben (Videoaufzeichnung)
World Health Organisation: Ensuring artificial intelligence (AI) technologies for health benefit older people (nur in englischer Sprache)
Der Verein Beyond AI setzt sich dafür ein, Diskriminierungen vermittelt durch den Einsatz algorithmischer Systeme zu vermeiden.
Aus der Forschung
Weitere Informationen zum Projekt AI Ageism
Das Projekt KI-gestützte Systematisierung von Altersbildern in zentralen Lebenswelten (KImAge) an der Hochschule Furtwangen systematisiert fotografisch erhobene Altersbilder aus zentralen Lebenswelten mittels KI, um negativen Stereotypen zu begegnen.
Informationen zum Thema Altersdiskriminierung
BAGSO: Themenseite Altersdiskriminierung
Antidiskriminierungsstelle des Bundes: Informationen zum Thema Altersdiskriminierung
Antidiskriminierungsstelle des Bundes: Studie „Altersbilder und Altersdiskriminierung“
Sonstiges
Die Antidiskriminierungsstelle des Bundes fördert ab Mai 2024 Projekte zur Bekämpfung von (Alters-)Diskriminierung. Anträge können bis 8. April 2024 gestellt werden.
Das Centre for Ageing better hat eine Bilddatenbank zusammengestellt, deren Bilder ältere Menschen auf nicht stereotype Weise darstellen und für eine positive und realistische Darstellung des höheren Alters stehen. Die Bilder können kostenlos heruntergeladen werden.