Simone Kopeinik forscht am Know Center Graz an Fairness in KI-Anwendungen (Foto © Miriam Raneburger)
Künstliche Intelligenz – auch KI genannt – kann in vielen Situationen im Alltag das Leben von Menschen mit Behinderung erleichtern: ob sprachgesteuerte Lampen oder Texte, die in Sekundenschnelle in leichte Sprache übersetzt werden. Aber: Die Technik ist nicht immer fair.
Künstliche Intelligenz (KI) verändert unsere Welt in rasantem Tempo. Technologien wie Sprachassistenz, automatische Übersetzungssysteme oder Roboter in der Pflege sind bereits Teil des Alltags. Diese Technologien können das tägliche Leben erleichtern – auch für Menschen mit Behinderung. Personen mit motorischen Einschränkungen können Geräte einfacher steuern, Text-zu-Sprache-Programme oder Bildschirm-Leser ermöglichen Zugang zu digitalen Inhalten und Gebärdenerkennungs- Programme übersetzen in Echtzeit. Aber nicht immer sind diese Technologien auch fair.
Simone Kopeinik forscht am Know Center in Graz an Fairness und Diversitätsbewusstsein in KI- Anwendungen. Sie erklärt: „Wenn wir von Fairness in KI-Anwendungen sprechen, dann meinen wir, dass niemand aufgrund von sensiblen Merkmalen ungerecht behandelt werden darf. Solche Merkmale sind zum Beispiel Geschlecht, ethnische Zugehörigkeit, Alter, Herkunft, Hautfarbe, Religionszugehörigkeit und so weiter.“ Wenn KI beispielsweise in Bewerbungsprozessen zum Einsatz kommt und auswählen soll, wer für eine Stelle in die engere Auswahl kommt, darf keine Person aufgrund dieser Merkmale benachteiligt werden. Diversitätsbewusstsein geht laut Simone Kopeinik aber noch einen Schritt weiter: KI-Anwendungen sollen für unterschiedliche Menschen ähnlich gut nutzbar sein. „Das ist oft ein Problem, weil Software-Anwendungen häufig für den Mehrheitsnutzer – zum Beispeispiel den technikaffinen, mittelalten Mann – gemacht werden.“ Spezielle Bedürfnisse anderer Gruppen, wie zum Beispiel Frauen, Familien, Senior*innen oder Menschen mit Behinderung würden meist außer Acht gelassen, so Kopeinik.
Doch was, wenn KI-Anwendungen eben nicht fair programmiert sind? Welche Fehler können passieren? Zuerst ist wichtig, zu verstehen, wie diese Technologien funktioniert: KI lernt von vorhandenen Daten. Wenn in diesen Datensätzen zum Beispiel Menschen mit Behinderung nicht vorkommen oder die Daten bereits Vorurteile erhalten, übernimmt die KI diese Vorurteile. Simone Kopeinik führt aus: „Wenn eine KI ‚unfaire‘ Ergebnisse liefert, kann sie bestehende gesellschaftliche Ungleichheiten verstärken und sogar neue Formen von Diskriminierung schaffen.“ Zum Beispiel: Eine Person mit Behinderung wird im Bewerbungsverfahren aufgrund der Beeinträchtigung nicht ausgewählt oder Spracherkennungs-Programme erkennen manche Stimmen nicht, weil sie nur mit männlichen Stimmen trainiert wurden.
Eine Lösung, um für mehr Fairness in KI-Anwendungen zu sorgen, könnte sein, die späteren Nutzer*innen in die Entwicklung miteinzubeziehen. Wenn Menschen mit unterschiedlichen Behinderungen im Entwicklungsprozess die KI testen, können Barrieren abgebaut werden. Weiters müssten die Daten, von denen eine KI lernt, genau auf Vorurteile sowie Ungerechtigkeiten getestet und regelmäßig überprüft werden. Ein Schritt in die richtige Richtung ist laut Simone Kopeinik der „AI Act“ der Europäischen Union (EU). Das ist ein neues Gesetz, das KI-Anwendungen nach ihrem Risiko beurteilt und Regeln schafft. Nach dem „AI Act“ ist zum Beispiel KI verboten, die Menschen manipuliert oder überwacht. Regeln alleine reichen aber nicht, so Kopeinik: „Es ist ebenso wichtig, ein breites Bewusstsein für die Risiken und Auswirkungen von KI zu schaffen. Nur wenn Entwickler*innen, Unternehmen und Anwender*innen für mögliche Fehler sensibilisiert sind, können sie frühzeitig erkannt und vermieden werden.“
Das KI-basierte Werkzeug capito.ai von Atempo hilft beim Schreiben in leichter Sprache: Texte können mit einem Klick in drei verschiedene Schwierigkeitsstufen
übersetzt werden. Das Tool gibt es derzeit in Deutsch und Englisch.
Mehr Infos: www.atempo-verein.at
Die kostenlose FYE-App (FYE steht für „from your eyes“, das ist Englisch und heißt „von deinen Augen“) soll Menschen mit Sehbeeinträchtigung das Leben erleichtern: Man kann Fotos und Videos machen oder Dokumente hochladen. Die App kann mittels KI diese Bilder, Videos und Dokumente beschreiben. Reicht die KI-Funktion nicht, kann man weitere Beschreibungen anfordern und es helfen (ehrenamtliche) Menschen aus.
Die App ist kostenlos im Play- oder Apple-Store verfügbar.
Viele Informationen über KI-Systeme für Menschen mit Behinderung haben Universitäten in Deutschland zusammengesucht. Das Projekt heißt KIKompass Inklusiv und ist im Internet zu finden:
Lebenshilfe Steiermark
Mariahilferplatz 5/1
8020 Graz
Telefon: +43 (0)650 81 25 751
Email: office@lebenshilfe-stmk.at
Mit Ihrer Auswahl willigen Sie in die Verwendung von technisch nicht notwendigen Cookies und Diensten (Matomo Analytics) zum Zweck der Analyse der Webseitennutzung sowie in die Verwendung von externen Einbindungen (YouTube-Videos) ein.
Widerruf: Sie können Ihre Einwilligung jederzeit über die Löschfunktion Ihres Browsers oder durch Anpassung der Datenschutzeinstellungen in der Datenschutzerklärung widerrufen. Nähere Informationen finden Sie in unserer Datenschutzerklärung.
Lebenshilfe Steiermark
Mariahilferplatz 5/1
8020 Graz
Telefon: +43 (0)316 812575
Email: office@lebenshilfe-stmk.at