Künstliche Intelligenz ist im Alltag vieler Privatpersonen angekommen, auch mehr als die Hälfte aller Unternehmen in Deutschland beschäftigte sich 2024 mit KI, jedes fünfte Unternehmen nutzt sie bereits. Versprochen werden Innovation, Verbesserung und Optimierung.
Umso wichtiger ist es, auch auf die Risiken von KI zu blicken. Neben ungenauen und falschen Informationen, ist Diskriminierung durch KI ein großes Problem. Aber wie geschieht das genau und was kann man dagegen tun?
Künstliche Intelligenz – Eine Definition
Künstliche Intelligenzen (KI), im Englischen Artificial Intelegence (AI), sind Technologien, die kognitive Kompetenzen imitieren, zu denen zuvor nur Menschen fähig waren. Beispiele dafür sind strategisches Denken, das Treffen von Entscheidungen oder auch sprachliche Fähigkeiten.
Die KI löst konkrete Probleme mit im Voraus festgelegten Mustern. Sie zeichnet zudem aus, dass sie abgesehen von den vorgegebenen Strukturen eigens neue Methoden entwickelt und sich so selbstständig weiterbildet, sie"lernt" sozusagen.
KI – gesteuerter Alltag
Auch wenn es uns oft nicht bewusst ist, beeinflusst KI unser Leben stärker, als wir annehmen. Das wohl bekannteste Beispiel sind generative KIs, unter anderem Large Language Models (LLM), welche mit großen Textmengen gefüttert werden und so in der Lage sind Sprache verstehen, zu verarbeiten und zu generieren. Dazu gehört unter anderem auch ChatGPT.
Weitere bekanntere Beispiele sind Smart Home Geräte, Suchmaschinen, Chatbots sowie Empfehlungen und Vorschläge auf beispielsweise Streaming Diensten oder durch Werbung. Unbekannter sind Anwendung in der Medizin bei der Diagnosestellung, der Gesichtserkennung im Smartphone, bei Kreditvergabe oder dem sogenannten "Robot Recruiting".
Vermeintliche Objektivität
Ein Vorteil, der bei der Verwendung von KI oft genannt wird, ist, dass KIs nicht subjektiv, sondern ohne Emotionen handeln und so nicht zu Verurteilungen neigen. Man könnte also annehmen, dass so neutrale, wertungsfreie und faire Entscheidungen getroffen werden.
Hier gibt es allerdings es ein Problem: Künstliche Intelligenzen sind nicht frei von Benachteiligung und Diskriminierung.
Ursachen der Diskriminierung durch AI
Wie allerdings passiert es, dass vermeintlich objektive Programme Menschengruppen benachteiligen?
Diskriminierung von KIs hat ihren Ursprung in den Datensätzen, auf welche die Programme zurückgreifen. Ob Diskriminierung stattfindet, kommt auf die Qualität der Trainingsdatensätze an. Wenn es hier diskriminierende, veraltete oder unvollständige Informationen gibt, kann die KI auch nur aus diesen Datensätzen lernen und eignet sich so bestimmte Verhaltensmuster an, welche bestimmte Gruppen dann wieder benachteiligen.
Rassismus und Sexismus
Wenn beispielsweise eine Gesichtserkennung-Software hauptsächlich mit weißen Gesichtern trainiert wurde, kann es dazu kommen, dass people of color weniger gut erkannt werden.
Und auch wenn die verwendeten Daten Gruppen zu gleichen Teilen widerspiegeln, kann es dazu kommen, dass genderspezifische Merkmale bestimmten Stereotypen zugeordnet werden.
Deshalb kommt es beispielsweise dazu, dass bei sogenanntem Robotik Recruiting, also der KI-gesteuerten Auswahl von Bewerbern für Unternehmen, Männer bevorzugt werden, weil die KI gelernt hat, dass Männer im Datenpool öfter für solche Stellen genommen wurden. Sie folgert daraus, dass diese besser geeignet sind, obwohl Frauen genauso qualifiziert wären.
Das Gleiche passiert auch in der Kreditverteilung: Hier werden Frauen im Durchschnitt niedrigere Kredite genehmigt als Männern.
Wenn man diese Beispiele anschaut, kann man leicht erkennen, dass die KI Diskriminierung verstärken kann. Außerdem sind Fehlschlüsse, wie beim Menschen, auch bei der KI nicht völlig ausgeschlossen.
Was wird dagegen getan?
Eines ist klar: Diskriminierenden Entscheidungen künstlicher Intelligenzen muss aktiv entgegengewirkt werden.
Da bei einem "selbst denkenden" Programm vollkommene Transparenz der einzelnen Schritte und Prozesse schwierig ist (die KI ist eine sogenannte "Black Box"), muss im Grundstadium, der Programmierung, angesetzt werden. Idealerweise lernt die KI nur mit korrekten, und nicht bereits diskriminierenden Daten und ist so intelligent, dass sie Informationen selbst als diskriminierend einstufen und so eliminieren kann.
Die European Union Agency for fundamental rights (FRA) zeigt in "Getting the future right – Artificial intelligence and fundamental rights" (Die Zukunft richtig gestalten – Künstliche Intelligenz und Grundrechte) die Probleme von KI auf und fordert die Europäische Union auf, sicherzustellen, dass alle Grundrechte respektiert werden, Leitlinien aufzustellen und ein Aufsichtsystem zu schaffen.
Auch hat die Antidiskriminierungsstelle des Bundes das Rechtsgutachten "Automatisch Benachteiligt" erstellt, das Probleme der KI umfassend analysiert und Lösungsmöglichkeiten aufgeführt.
Richtungsweiser wären also vorhanden.
Was können bzw. müssen wir tun?
In erster Linie müssen auch wir uns bei Nutzung KIs bewusst sein, alle Informationen, die uns Künstliche Intelligenzen bei Nutzung ausspucken, kritisch zu hinterfragen, zu und filtern. Letztendlich liegt es aber an den Regierungen und Tech-Firmen, für Sicherheit im Umgang mit künstlicher Intelligenz zu sorgen.
Podcast "Ethik Digital" abonnieren
Der Podcast Ethik Digital erscheint einmal monatlich und wird von Rieke C. Harmsen und Christine Ulrich gehostet. Der Podcast erscheint als Audio, Video und Text. Alle Folgen des Podcasts Ethik Digital gibt es unter diesem Link. Fragen und Anregungen mailen Sie bitte an: rharmsen@epv.de
Audio-Podcast
Der Audio-Podcast kann bei diesen Kanälen abonniert werden:
Youtube-Playliste mit allen Videos von #EthikDigital
Hier geht's zu den Videos des Podcasts Ethik Digital.
Kommentare
Diskutiere jetzt mit und verfasse einen Kommentar.
Teile Deine Meinung mit anderen Mitgliedern aus der Sonntagsblatt-Community.
Anmelden