Julia Gundlach gehört zum Team des Bertelsmann-Projekts "Ethik der Algorithmen". Nicht das technisch Mögliche, sondern das gesellschaftlich Sinnvolle soll herausgearbeitet werden. Im Sonntagsblatt-Podcast "Ethik Digital" erklärt sie, was sie an Algorithmen fasziniert - und welche Herausforderungen sich bei dem Thema stellen.

 

Julia Gundlach, wie kamen Sie zum Projekt ‚Ethik der Algorithmen‘ in die Bertelsmann Stiftung?

Gundlach: Zu Beginn meines Studiums der Volkswirtschaftslehre war die zentrale Frage, wie es zu der Finanzmarktkrise 2007/2008 kommen konnte und welche Lehren wir daraus ziehen. Durch Arbeitserfahrungen im Bundeswirtschaftsministerium bin ich zu dem Schluss gekommen, dass mich insbesondere die Frage interessiert, wie digitale Technologien unser Leben und unsere Gesellschaft verändern. Bei der Bertelsmann Stiftung und dem Projekt Ethik der Algorithmen arbeite ich zu diesen Fragestellungen seit über einem Jahr.

Wie können algorithmische Systeme stärker für das Gemeinwohl genutzt werden?

Gundlach: Vor vier Jahren hat das Projekt ‚Ethik der Algorithmen‘ angefangen die Frage zu stellen, wie Risiken für die Gesellschaft minimiert werden können. Doch der Blick auf Risiken allein reicht nicht – wir denken auch darüber nach, wie wir algorithmische Systeme für gemeinwohlorientierte Zwecke einsetzen können. Wir wollen wissen, wie wir mit Hilfe dieser Systeme gesellschaftliche Herausforderungen und Probleme besser lösen können.

Es sollten Probleme identifiziert und gelöst werden?

Gundlach: Genau. Technologie wirkt häufig erst einmal faszinierend, viele empfinden aber auch einen Zwiespalt. Aus meiner Sicht befindet sich der Diskurs über Algorithmen und KI noch in einer pubertären Phase, bei dem wir uns an den Extremen abarbeiten: Wir schwanken zwischen Dystopien und Utopien, wie wir sie aus Science-Fiction Filmen kennen. Das sind starke Bilder, die uns prägen - sie haben Auswirkungen auf den Diskurs über diese Themen.

Entscheidend ist, dass wir Technologie als Werkzeug verstehen. Um Werkzeuge sinnvoll einzusetzen, muss immer erst geklärt werden, was für ein Problem wir lösen wollen und ob wir dafür das richtige Werkzeug ausgewählt haben. Für manche Probleme können Algorithmen und KI hilfreich sein, für manch andere aber auch nicht.

Gerechtere Verteilung? Kita-Platzvergabe über Algorithmen

Die Stiftung hat vor kurzem ein Impulspapier zur algorithmenbasierten Kita-Platzvergabe veröffentlicht. Kann ein Algorithmus die Platzvergabe gerechter regeln?

Gundlach: Gemeinwohlorientierte Innovationen sind ein spannendes Thema. Wir wollten ein konkretes Positivbeispiel finden, bei dem ein algorithmisches System für das Gemeinwohl eingesetzt wird. Wir haben uns dann in der Stiftung die Bereiche Bildung und Gesundheit näher angesehen, wo Expert:innen seit vielen Jahren an zentralen gesellschaftlichen Herausforderungen arbeiten. So sind wir auf das Thema der Kitaplatzvergabe gestoßen. Das ZEW – Leibniz-Zentrum für Europäische Wirtschaftsforschung arbeitet seit 2017 an einer algorithmenbasierten Kitaplatzvergabe entwickelt. Eine Software soll dabei helfen, die Platzvergabe effizienter und im besten Falle gerechter zu machen.

Dazu muss zunächst ein Kriterienkatalog entwickelt werden - lokal vor Ort und gemeinsam mit den Menschen, die wissen, welche Kriterien bei der Kitaplatzvergabe eine Rolle spielen. Es müssen Werteentscheidungen getroffen werden: Sollten Eltern, die näher dran wohnen, vorzugsweise einen Platz bekommen oder Eltern, die vielleicht besondere Härtefälle darstellen? Die Software kann dann auf Basis des Kriterienkatalogs und der Wünsche von Eltern für jede Kita eine Rangliste erstellen, in welcher Reihenfolge jede Einrichtung am besten die Kinder aufnehmen sollte. Dabei konnte die Kitaleitung aus besonderen Gründen Änderungen an der Einstufung vornehmen. Auf diese Art und Weise kann die Verteilung also durch einen Algorithmus unterstützt werden. Am Ende bekommt jede Familie für ihr Kind genau ein Angebot. Und der Clou ist: Die Eltern wissen, dass es das bestmögliche Angebot ist.

Das System wurde in einigen Gemeinden und Städten bereits erprobt, etwa in Kreis Steinfurt in Nordrhein-Westfalen. Und es ist toll zu sehen, dass ein algorithmisches System bei einem konkreten gesellschaftlichen Problem unterstützen kann.

Transparenz und Vertrauen bei Algorithmen

Wie transparent und überprüfbar ist der Algorithmus? Erfahre ich als Elternteil, wie das System funktioniert?

Gundlach: Es lohnt sich, zuerst einmal zu schauen, wie die Kitaplatzvergabe momentan abläuft. Es kursieren Geschichten wie: Dort haben die Eltern den besseren Erdbeerkuchen gebacken, hier lief es über persönliche Beziehungen. Zurzeit sind die Kriterien oft sehr intransparent und Eltern wissen nicht, wonach die Entscheidung bemessen wird.

Der Algorithmus macht nicht mehr als zu rechnen. Aber damit er rechnen kann, braucht er eindeutige Kriterien und dass diese so explizit festgelegt werden, ist eine Chance für mehr Fairness. Dieses Offenlegen der Kriterien ist überaus hilfreich, sie werden dadurch überprüfbar. Wenn es keine Tricksereien gibt, dann führt das wirklich zu einer gerechteren Vergabe.

Und was ist mit dem Thema Vertrauen? Früher hat man der Kita-Leiterin oder den städtischen Referenten nicht zugetraut, dass sie wirklich die besten Lösungen finden. Jetzt müssen die Eltern dem Algorithmus vertrauen. Wie ist das mit der Verantwortlichkeit - wo kann ich mich beschweren?

Gundlach: Bei Gesprächen kommt ganz oft der Einwand, ein Algorithmus oder die KI seien "kalt". Dabei ist ein Algorithmus nicht mehr als ein Kochrezept: Erst Milch, dann Reis, dann Zucker, und so weiter, und am Ende wird daraus Milchreis. Das ist eine logische Abfolge von Schritten. Wir müssen diese technischen Systeme gut erklären und partizipativ entwickeln, damit wir Verständnis schaffen. Das geht nicht ohne Vertrauensbildung und proaktive Informationsvermittlung. Und ob nun Technologie eingesetzt wird oder nicht: Es sollte immer die Möglichkeit geben, sich über ungerecht empfundene Entscheidungen zu beschweren.

Haben Sie bei der Bewertung der algorithmischen Kitaplatzvergabe ethische Richtlinien einbezogen?

Gundlach: Für die Bewertung haben wir unter anderem die AlgoRules in den Blick genommen. Das sind neun Regeln für die Gestaltung algorithmischer Systeme, die in unserem Projekt unter Einbindung von fast 500 Personen entwickelt wurden. In diesem partizipativen Prozess haben wir diskutiert, welche Fragestellungen wichtig sind, um algorithmische Systeme ethisch zu entwickeln und einzusetzen – dabei geht es darum, wie man Kompetenz aufbaut, Verantwortung definiert, Sicherheit gewährleistet oder Kennzeichnung durchführt.

Bei vielen Impfzentren haben die Algorithmen zur Platzvergabe nicht gut funktioniert. Welche Probleme können über einen Algorithmus gelöst werden - und welche nicht?

Gundlach: Die Probleme bei der Vergabe von Impfterminen zeigen, dass eine gute Idee, wo Algorithmen uns helfen können, nicht automatisch bedeutet, dass diese auch gut umgesetzt ist. Wir brauchen mehr Transparenz darüber, wo welche algorithmischen Systeme eingesetzt werden und da macht die NGO AlgorithmWatch eine sehr gute Arbeit. Ich finde es wichtig, dass auf konkrete Probleme hingewiesen wird, so dass Software kontinuierlich verbessert wird.

Die Bertelsmann Stiftung hat zusammen mit AlgorithmWatch die Plattform UNDING ins Leben gerufen, dort sollen sich Menschen beschweren können?

Gundlach: Aktuell ist es für Betroffene von diskriminierenden algorithmischen Systemen oft schwer, ihre Rechte durchzusetzen. Mit der Plattform UNDING unterstützen wir den Versuch, diese Art von Anliegen hörbar zu machen. Zwei Beispiele: Mal führt ein Navigationsgerät die Autofahrer immer wieder durch eine Spielstraße für Kinder. Oder jemand gibt seinen Namen bei Google ein und ihr oder ihm werden automatisch irgendwelche seltsamen Begriffe angezeigt.

Die Plattform UNDING will dabei helfen, dass solche Kritikpunkte an die Unternehmen weitergeleitet werden. Wir wollen den Betroffenen wieder die Macht geben, sich durchzusetzen. Ich glaube, dass diese Art von Verbraucherschutz sehr wichtig ist. Denn viele große Tech-Unternehmen zeigen kein großes Interesse, die einzelne Stimme sofort zu bedienen oder Fehler zu beheben. Dieses Desinteresse führt dazu, dass sich Diskriminierung fortsetzt. Das müssen wir ändern! Wir brauchen mehr Diversität und Vielfalt in der Technologie und ihrer Entwicklung.

Gemeinwohl und digitale Ethik

Welches ist die größte Herausforderung für digitale Ethik beim Gemeinwohl?

Gundlach: Wir wissen aus der Wirtschaft, wie man Dinge skaliert und womit man richtig viel Geld verdienen kann. Aber wie ist es eigentlich, wenn diese betriebswirtschaftliche Logik nicht der Kern des Unternehmens ist? Wenn eher ein gesellschaftliches Ziel verfolgt wird? Wie können wir Impact, aber auch einen Return on Invest zusammenbringen? Wie schaffen wir einen Business Case, der nicht nur darauf ausgerichtet ist, möglichst viel Geld zu verdienen, sondern eben auch Innovationen für die Gesellschaft voranzutreiben? Da gibt es noch viel zu wenig Förderungen und Finanzierungsmöglichkeiten.

Wie kommt die Ethik zu dem Programmierern?

Das ist eine spannende Frage. Die Bildungswege von Programmierer*innen sind sehr unterschiedlich. Es gibt bei der Entwicklung von Algorithmen keinen hippokratischen Eid oder ähnliche Voraussetzungen, die erfüllt werden müssen. Die Sensibilisierung für ethische Frage nimmt aber zu – auch in den Populärwissenschaft und in den Medien bekommt das Thema mehr Raum.

Ethik der Algorithmen

Sie wollen mehr über Medien und Ethik erfahren? Dann abonnieren Sie den Sonntagsblatt-Newsletter unter diesem Link.

Ethik der Algorithmen

 

Wo stehen wir mit der digitalen Ethik in fünf Jahren?

Gundlach: Keiner von uns kann in die Zukunft schauen. Was uns hilft, ist die Frage: Was wollen wir eigentlich? In welcher Art von Gesellschaft wollen wir leben? Wo setzen wir Schranken? Im besten Fall haben wir in fünf Jahren eine Regulierung auf europäischer Ebene, die nicht von einer Big-Tech-Lobby total verwässert wurde und wirklich auch Schranken setzt.

Dann fände ich es gut, wenn der Kompetenzaufbau in der Bevölkerung vorangeschritten wäre - insbesondere bei Menschen mit einem niedrigen Bildungsabschluss oder auch älteren Menschen. Denn die gilt es mitzunehmen.

Die gesellschaftliche Debatte, die wir jetzt führen, sollte keine Expert:innendebatte mehr sein. Wir müssen entmystifizieren, was gerade geschieht, und es in unseren Alltag bringen. Wir müssen diese Themen am Küchentisch diskutieren können.

Wird es ein KI-System geben, dass selbst Entscheidungen trifft?

Gundlach: Auch wenn sehr komplexe Systeme entwickelt und eingesetzt werden, dürfen Menschen nicht die Verantwortung für die Ergebnisse abgeben. Sicher gibt es Unterschiede bei der gesellschaftlichen Relevanz: Wenn es um das Sortieren von Schrauben geht, sehe ich keine großen gesellschaftlichen Probleme. Aber es kann nicht sein, dass bei der Zulassung zu einer Universität neuronale Netze und künstliche Intelligenz eingesetzt werden und die dafür verantwortlichen Menschen, sich aus der Verantwortung stehlen, wenn etwas schlecht läuft.

Ein Beispiel, wie es gut laufen kann: Die Polizei in Nordrhein-Westfalen wollte herausfinden, in welchen Stadtvierteln sie Streife fahren muss, um besser Einbrüche verhindern zu können. Dann haben sie parallel ein regelbasiertes System und eine komplexere Künstliche Intelligenz mit neuronalen Netzen genutzt. Dann wurde verglichen, wie gut diese Systeme funktionieren. Am Ende haben sie festgestellt, dass die Ergebnisse durch das neuronale Netz nur geringfügig besser waren. Und dabei kostet das viel mehr Rechenleistung, ist komplexer und schwer nachzuvollziehen. An so einem Punkt ist es wichtig, selbstbewusst zu sagen: das einfache System funktioniert, das verstehen wir alle besser. Damit können wir gut umgehen.

Bleibt digitale Ethik in den kommenden Jahren ein wichtiges Thema?

Absolut. Das Schöne am Feld der digitalen Ethik ist, dass wir uns zentrale gesellschaftliche Fragen stellen können und müssen. Wir befinden uns ganz am Anfang dieser großen Diskussionen. Es gibt kaum einen Lebensbereich, der nicht betroffen ist. Hier gibt es noch viele Themen, die wir heute noch gar nicht kennen, über die wir aber vielleicht in einem Jahr diskutieren werden. Darauf freue ich mich.

 

(Das Interview ist eine stark gekürzte Version des Videogesprächs)

Podcast Ethik Digital abonnieren

Der Podcast Ethik Digital von Rieke C. Harmsen und Christine Ulrich kann bei diesen Kanälen abonniert werden:
 

 

Mit wem sollten wir unbedingt sprechen in unserem Podcast "Ethik Digital"? Wir freuen uns über Ihre Fragen und Anregungen! Mailen Sie bitte an: rharmsen@epv.de

Julia Gundlach im Podcast Ethik Digital auf Spotify anhören