Jaana Müller-Brehm gehört zum Team "Forschung und Projekte" beim iRightsLab. Die Sozialwissenschaftlerin arbeitet für das Zentrum für vertrauenswürdige Künstliche Intelligenz (ZVKI). Ihre Forschungsergebnisse erscheinen unter anderem im Magazin "Missing Link", das Diskriminierung bekämpfen und Fairness stärken möchte. Im Podcast Ethik Digital erklärt sie, wie eine vertrauenswürdige KI aussehen kann – und was sich ändern muss, damit mehr Fairness in KI-Modelle und Systeme gelangen.

Was fasziniert Sie persönlich an der digitalen Ethik?

Müller-Brehm:  Als Soziologin habe ich eine sehr gesellschaftsorientierte Sichtweise auf Technik, Digitalisierung und Künstliche Intelligenz oder alles, was unter diesem Sammelbegriff gefasst wird.

Wir werden gerade geflutet von Informationen über KI. Wie gehen Sie damit um?

Müller-Brehm:  Das beschäftigt mich im beruflichen als auch im privaten Kontext. Nicht nur die Frage, was da eigentlich passiert und wie sich KI-Modelle entwickeln, sondern auch, wie wir darüber sprechen und welche Blickweise wir auf diese Dinge haben. Mir fällt auf, dass eine sachliche Auseinandersetzung mit grundlegenden Fragestellungen, für welchen Einsatz KI-Modelle gut sind, eine sehr geringe Rolle spielt. Viel wichtiger ist den Menschen die Diskussion, ob wir auf dem Weg sind zu einer Superintelligenz oder ob uns KI unnötig macht oder zu einem besseren Leben verhilft. Diese Fragen überdecken vieles. Dabei kommen wir jeden Tag in Berührung mit KI-Anwendungen – etwa wenn wir uns navigieren lassen oder soziale Netze nutzen oder Suchmaschinen. Offenbar wird hier eine gewisse Form der Unternehmenskommunikation sehr erfolgreich geführt, und da kann man sich fragen, ob die Debatten in die richtige Richtung gehen. Andererseits werden die Themen nun erstmals von mehr Menschen wahrgenommen.

Wenn man sich länger mit diesen Themen beschäftigt, dann hilft es, sich zu sagen: Moment mal, da ist jetzt gerade ein Hype, aber jetzt treten wir einen Schritt zurück, schauen uns das in Ruhe an und ordnen das ein.

Als Soziologin sind Sie eigentlich eher beschreibend unterwegs, also sozialwissenschaftlich, und jetzt haben Sie den Weg zur Ethik genommen. Überrascht es Sie, wie normativ aufgeladen die Debatten sind?

Müller-Brehm:  Ich finde es spannend, zu sehen, was passiert hier gerade. Diese normativen Auseinandersetzungen sind wichtig, aber ich würde gerne dazu kommen, bestimmte Fragen zu stellen: Wann macht es denn Sinn, bestimmte KI-Modelle einzusetzen? In welchen Bereichen ist es sinnvoll, routinierte Arbeiten zu ersetzen? Wie können wir menschliche Aufsicht gestalten? Das ist für mich interessanter und wichtiger.

Jaana Müller-Brehm vom iRightsLab über vertrauenswürdige KI-Modelle und Fairness in Algorithmen.

Was ist denn vertrauenswürdige Intelligenz für Sie?

Müller-Brehm: Der Begriff ist abgeleitet aus wissenschaftlich-politischen Auseinandersetzungen. Da gab es eine Gruppe, die hat sich im Auftrag der EU die Frage gestellt, was vertrauenswürdige Künstliche Intelligenz ausmacht. Sie haben bestimmte Kriterien aufgestellt, die eigentlich erfüllt sein müssten, dafür, dass man sagt: Okay, dieses Modell oder diese Anwendung kann man als vertrauenswürdig ansehen. Dazu gehören etwa Maßnahmen der Nachvollziehbarkeit oder Transparenz. Oder das Kriterium der Verlässlichkeit.

Wir versuchen mit Veröffentlichungen, Veranstaltungen und anderen Auseinandersetzungen dieses Thema genauer in den Blick zu nehmen und zu fragen, wie, wie setzen wir das jetzt eigentlich um? Wir meinen damit kein blindes Vertrauen, also dass wir sagen, dass KI-Modell und Anwendungen pauschal Vertrauen verdienen, sondern wir müssen uns damit auseinandersetzen, wie wir auf Basis einer bestimmten Informations- und Wissensgrundlage und bestimmten Prozessen wie zum Beispiel Prüfungen, Dokumentationen und Kompetenzvermittlung dahin gehen oder dahin kommen, dass einzelne Nutzerin, Verbraucherin, Bürgerinnen sagen können: Okay, hier ist die Vertrauenswürdigkeit gegeben.

Denn wir können es nicht an die Nutzerinnen und Verbraucherinnen auslagern, dass die alle möglichen Informationen in ihre Bewertung einbeziehen und diese ganzen komplexen Vorgänge reflektieren und dann zu einer Entscheidung kommen. Das ist in unserem Alltag faktisch einfach nicht möglich. Aber die Frage ist, welche Prüfprozesse oder Vermittler dazwischen geschaltet werden können, die sagen, okay, hier sind bestimmte Kriterien der Vertrauenswürdigkeit erfüllt.

Können Sie ein konkretes Beispiel dafür nennen?

Müller-Brehm: Es gibt etwa die Idee, in KI-Modellen bestimmte Punkte zu definieren, die Fairness bedeuten. Also dort wird definiert, welche Datenpunkte wie behandelt werden müssen. Bei einer Anwendung im medizinischen Bereich, die für Frauen und Männer gleichermaßen funktionieren sollte, müssen wir schauen, dass die Datengrundlage ausgewogen ist, also dass mögliche Verzerrungen, die zur Benachteiligung führen könnten, ausgeglichen werden. Und dann geht das natürlich weiter, denn wir leben nicht in einem binären System, es gibt Transgender, die würden bei einem solchen Konzept durchfallen und weiterhin unfair behandelt werden.

Hier geht es also darum, schon in den Entwicklungsprozess zu schauen und zu erkennen, welche Sichtweise und Annahmen hier zugrunde gelegt werden.  Wie können Prüfebenen und Testebenen eingebaut werden, wie können wir erreichen, dass es keine Benachteiligung gibt. Oder dann eben im Einsatz, hier müsste es Möglichkeiten geben, dem System noch Feedback zu geben.

Gleichzeitig ist es wichtig, den Menschen Kompetenzen zu vermitteln. Wenn ich im medizinischen Bereich KI-Modelle einsetze, dann müssen die Menschen, die die Systeme  anwenden, auch über die Begrenzungen und Limitationen dieses Systems Bescheid wissen und verstehen, wie es funkioniert.

Wichtig ist es, zu erkennen, dass die Technik eben mit unserem gesellschaftlichen Leben zusammenhängt. KI-Modelle und Anwendungen können nicht losgelöst von uns Menschen und unseren Strukturen existieren.

Was wollen Sie mit Ihrer Arbeit erreichen?

Müller-Brehm: Unsere Aufgabe ist es, sachliches Wissen strukturiert weiterzugeben, also aufzubereiten und Multiplikator*Innen in politischen Prozessen oder in der Wissenschaft zur Verfügung zu stellen. Es ist der Versuch, nicht zu stark auf eine Perspektive zu fokussieren, deshalb arbeiten wir interdisziplinär, und ich arbeite nicht alleine, sondern dann schaut auch ein Kollege, der Jurist ist, auch über das Thema.

Die meisten Prozesse sind sehr stark wirtschaftlich geprägt. Sehr viel Kapital ist in die Forschung geflossen, und die Wirtschaft ist Treiber dieser Entwicklung.

Deswegen ist es wichtig, dass man andere Perspektiven wie die aus der Wissenschaft stärkt und die Meinungen von zivilgesellschaftlichen Akteurinnen und Organisationen, die wiederum Vertreterinnen von uns Bürgerinnen sind, oder Menschen, die von Diskriminierung betroffen sind, sichtbar macht. Was sind deren Perspektiven? Welche strukturellen Diskriminierungsformen erfahren sie im Alltag, und welche erfahren sie in Bezug auf Technik? Wie können wir mit Wissenschaftler*innen in den Austausch gehen über Fragen wie Fairness?

Wie gehen wir um mit der Wirtschaftsmacht? Was muss und was kann der Staat dafür tun, dass sich da etwas verändert?

Müller-Brehm:  Unternehmen treiben hauptsächlich Entwicklungen voran, die ihrem Unternehmen weiterhelfen. Soziale Netzwerke sind meist so ausgelegt, dass sie die Nutzer möglichst lange auf der Plattform halten wollen, es geht ihnen nicht darum, die Menschen ausgewogen zu informieren. Aber ich möchte da keinen Pauschalverdacht in den Raum stellen, denn es gibt durchaus Ansätze, das anders zu machen.

Die Entwicklung von guten oder gut funktionierenden Modellen und Anwendungen steht stark in Verbindung mit der Menge der Daten, mit Wissen, Expertise und Kompetenz. Hier geht es darum, wirkungsvolle Alternativen anzubieten und den Konzernen entgegenzusetzen.

Und was ist dafür nötig?

Müller-Brehm: Es wäre wichtig, die unabhängige Forschung weiter zu fordern, um unabhängige Erkenntnisse zur Verfügung zu stellen. Das findet statt, aber nicht in ausreichendem Maße. Besonders wichtig ist auch die Kompetenz, hier braucht es Ausbildung in allen Bereichen – in Arbeitskontexten ebenso wie im Bildungskontext.

Und dann müssen wir dafür sorgen, dass Menschen an die Informationen herankommen. Wir müssen eine kritische Reflexion ermöglichen und niederschwellig die Lust wecken, sich mit diesen Themen auseinander zu setzen.

Es gibt öffentliche Meinungsbildungsprozesse, aber hier braucht es sehr viel Zeit, sich hier in Gesetzgebungsprozesse einzubringen. Die meisten Menschen haben nicht die Zeit, sich so tief damit auseinanderzusetzen, ihre Positionen zu überlegen und Zeit zu investieren. Dazu gehören auch journalistisch aufbereitete Informationen.

Kommen wir überhaupt noch hinterher?

Müller-Brehm:  Was fatal wäre, wäre, wenn wir jetzt den Kopf in den Sand stecken und einfach sagen, wir lassen das jetzt halt mal so weiterlaufen. Wir versorgen die Menschen ja mit Informationen. Wir publizieren ein Magazin, Journalist*innen haben viele Möglichkeiten, Aufklärungsarbeit zu leisten. Sicherlich ist die Geschwindigkeit der technischen Entwicklungen hier ein Problem, aber auch die Geschwindigkeit der Medienberichterstattung. Wir müssen schauen, dass wir sachlich informieren, ohne dabei total langweilig zu werden.

Wenn Sie in die Zukunft schauen, worauf freuen Sie sich, und wovor fürchten Sie sich in Sachen KI?

Müller-Brehm: Ich freue mich darauf, dass sich bestimmte Regeln etablieren werden, und es dann auch ein bisschen weniger Wildwuchs geben wird und wir uns bestimmte Kompetenzen aneignen. Das sehen wir ja im Umgang mit sozialen Medien, hier gibt es einen viel reflektierteren Umgang mit den Inhalten als noch vor einigen Jahren. Ich glaube, wir können auch ein Stück Vertrauen haben in unsere demokratischen Prozesse. Wir können alle darauf einwirken – in Diskussionen, in Unternehmen. Solche Dinge müssen wir fördern.

Unsere große Herausforderung ist es, die Vorherrschaft großer Konzerne aufzubrechen und die unabhängige Forschung voranzutreiben. Da gibt es gute Ansätze in der EU, aber das wird eine große Herausforderung. Und dann müssen wir viel Aufklärungsarbeit leisten.

Wünschen würde ich mir, dass wir das Zusammenwirken von gesellschaftlichen Strukturen, Infrastrukturen und Technik stärker in den Blick nehmen. Wenn wir einen Hammer oder einen Aufzug nutzen, dann müssen wir uns vorher überlegen, wie wir diese einsetzen. Bei einem KI-Modell ist das viel komplexer. Wenn wir glauben, wir können mit Technik gesellschaftliche Probleme lösen und wiederum mit Technik Probleme der Technik, dann müssen wir hier einen anderen Ansatz finden.

Schließlich haben wir einen sehr "westlich" orientierten Blick auf KI-Modelle und Anwendungen. Diese sind mit Beschränkungen behaftet und bedienen eine bestimmte Gesellschaftsstruktur. Es gibt aber ganz viele Menschen auf der Welt, deren Perspektive wir da nicht mit einbeziehen und die dann aber am Ende diese KI-Anwendungen auch nutzen sollten oder könnten. Und es wäre wichtig, deren Perspektive in den Blick zu nehmen und zu berücksichtigen.

(Der Text ist eine stark gekürzte Version des Gesprächs)

Jetzt den Podcast "Ethik Digital" abonnieren

Der Podcast Ethik Digital erscheint einmal monatlich und wird von Rieke C. Harmsen und Christine Ulrich gehostet. Der Podcast erscheint als Audio, Video und Text. Alle Folgen des Podcasts Ethik Digital gibt es unter diesem Link. Fragen und Anregungen mailen Sie bitte an: rharmsen@epv.de

Audio-Podcast

Der Audio-Podcast kann bei diesen Kanälen abonniert werden:

Youtube-Playliste mit allen Videos von #EthikDigital

Hier geht's zu den Videos des Podcasts Ethik Digital.

Das Zentrum für vertrauenswürdige Künstliche Intelligenz (ZVKI)

Das Zentrum für vertrauenswürdige Künstliche Intelligenz (ZVKI) versteht sich als nationale und neutrale Schnittstelle zwischen Wissenschaft, Wirtschaft, Politik und Zivilgesellschaf. Es informiert über verbraucher*innenrelevante Aspekte, ermöglicht öffentliche Diskussionen und entwickelt Instrumente zur Bewertung und Zertifizierung von vertrauenswürdiger KI.

Mit Unterstützung des Bundesministeriums für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV) baut der unabhängige Think Tank iRights.Lab, in Zusammenarbeit mit den Fraunhofer-Instituten AISEC und IAIS sowie der Freien Universität Berlin, das Zentrum auf.

Das ZVKI soll als zentraler Ort der Debatte in Deutschland die Entwicklungen rund um gesellschaftliche Fragen zu Künstlicher Intelligenz und algorithmischen Systemen greifbar machen. Im Fokus des Projekts steht zudem die Gründung eines gemeinnützigen Vereins, der die Projektziele über die Förderungsphase hinaus weiterverfolgen soll. Hier geht es zum ZVKI.

Magazin Missing Link

Das Magazin "Missing Link" wird vom iRightsLab herausgegeben. Es beschäftigt sich mit Fragen rund um KI-Modelle und Systeme, Algorithmen, Big Data.  Hier ist der Link zum Magazin.

Kommentare

Diskutiere jetzt mit und verfasse einen Kommentar.

Teile Deine Meinung mit anderen Mitgliedern aus der Sonntagsblatt-Community.

Anmelden