Monika Ilves ist Vorständin beim Zentrum für Digitalen Fortschritt D64 und Codirektorin des Institute of Electronic Business. Darüber hinaus berät die Digitalexpertin auch Unternehmen als Business Coach in der digitalen Transformation. Im Podcast Ethik Digital schildert sie, wie Gemeinwohlunternehmen sich fit machen können für KI-Tools und digitale Themen – und welche Bedeutung sie im der Gesellschaft einnehmen können.

Warum beschäftigen Sie sich mit Ethik, Digitalisierung und Gemeinwohl?

Monika Ilves: Das ist eine lange Geschichte, aber die Kurzfassung wäre: Es wurde mir aus familiären Gründen in die Wiege gelegt. Meine ganze Familie ist im Grundsatz technikbegeistert. Wir saßen mit neuen Gadgets als Familie in einem Raum und haben diskutiert, was die bessere Option wäre. Daraus hat sich mein Interesse für Technologie entwickelt. Wir können eine neue Infrastruktur hinsetzen, aber wenn die Menschen diese nicht nutzen, haben wir nicht viel davon.

Gleichzeitig ist es so: Wenn wir neue Technologie in unseren Alltag holen, verändern sich Strukturen und die Art und Weise, wie wir Information aufnehmen. Und da kommen wir auf den Punkt der Ethik, die wir bedenken müssen – auch bei Lösungen, die womöglich aus der reinen Baubegeisterung für eine Technologie nicht inhärent dabei sind.

Wir sprechen heute über Gemeinwohl und Digitalisierung. Sie haben mitgewirkt an dem White Paper "Solidarische Praxis entlang der Nutzung von KI verankern", entstanden im Verein D64 im Rahmen des Projekts "Code of Conduct für die demokratische KI". Was nützt das einem Verein oder einer NGO?

D64 ist eine Art Mitmachverein. Wir haben ungefähr 800 Mitglieder aus ganz unterschiedlichen Bereichen – sowohl Behörden und Vereine als auch eigenständige, themenbasierte Experten, Wissenschaftler und Vertreter aus der Wirtschaft. Wir haben beobachtet, dass die Nutzung von KI steigt in der Zivilgesellschaft.

Wir brauchen eine gemeinsame Verantwortung für den Umgang mit KI aus der Zivilgesellschaft heraus – für Risiken wie Diskriminierung, Intransparenz und Verstärkung von Abhängigkeiten, sowohl im wirtschaftlichen Bereich als auch bei den befragten Organisationen im Nonprofit-Bereich. Ich glaube, es waren über 60 Prozent, die damals – ich glaube, das war 2024 – bereits generative KI genutzt haben. Gleichzeitig hatte keine der Nonprofit-Organisationen irgendeine Art von Richtlinie oder Leitlinie. Dadurch entsteht natürlich eine Art Schatten-KI, dem wir mit dem Code of Conduct entgegenwirken wollten.

Was nützt der Code of Conduct einem Verein oder einer NGO?

Organisationen können sich dieses Paper herunterladen und bekommen ganz konkrete Anleitungen. Denn für viele Nonprofits ist es sehr schwer, sich mit diesem Thema zu beschäftigen, weil es meistens sehr kleine Organisationen sind, die viel mit Ehrenamt arbeiten oder einfach kleine Teams haben. Das ist so ein Riesenthema, das am Horizont steht und bei dem alle irgendwie denken: "Oh je, wie mache ich das jetzt?"

Der Code of Conduct besteht aus acht Grundprinzipien. Zudem gibt es drei Positionspapiere, in denen viele Beispiele enthalten sind. Der Code of Conduct selbst ist natürlich zunächst eine Selbstverpflichtung, die sich eine Organisation in einem Aushandlungsprozess gibt.

Anhand der Grundprinzipien kann jede Organisation entscheiden, welche Themen sie angehen will. Jede Organisation wird dabei wahrscheinlich unterschiedliche Prioritäten haben. Der kleinste gemeinsame Nenner ist zunächst, sich darauf zu einigen, dass man versucht, diese Grundprinzipien im Vereins- oder NGO-Kontext zu beachten.

Dann fängt man mit dem ersten Prinzip an: Abwägung und Nutzung. Da kann man überlegen, was man nutzt – eher Standardlösungen oder vielleicht eher eine Open-Source- oder Open-Weight-Lösung, bei der man zumindest zu einem gewissen Grad nachvollziehen kann, wie sie trainiert worden ist. Selbst wenn man im Verein keine technische Versiertheit hat, gibt es dafür bereits relativ viele übernehmbare Angebote. Das andere ist die Transparenz darüber, wie man künstliche Intelligenz nutzt – auch das lässt sich relativ schnell umsetzen, wenn man einfach für die Mitglieder oder alle, die mit dem Verein in Berührung kommen, offenlegt: "Das sind die Tools, die wir nutzen." Im besten Fall ist man offen für Diskussion – so kennt man es aus der Zivilgesellschaft ja eigentlich noch oft.

Können Sie ein Beispiel nennen für eine Organisation, die das umgesetzt hat?

Der Arbeiter-Samariter-Bund nutzt in Pflegeeinrichtungen die KI zum Einsprechen von Dokumentationen. Damit hat das Pflegepersonal mehr Zeit für die Menschen. Der Bund hat für die Nutzung eine Betriebsvereinbarung abgeschlossen: Wenn mehr KI-Tools genutzt werden, wird diese gewonnene Zeit für mehr Menschlichkeit eingesetzt.

Haben NGOs und NPOs überhaupt eine Chance, ihre Wünsche und Anforderungen gegenüber den  Tech-Giganten hörbar zu machen?

Wenn man von Techgiganten spricht, ist man ganz schnell bei geopolitischen Themen. Das gilt ja fast für alle – neben NGOs auch für Verwaltungen, Behörden, aber auch für Mittelständler und andere. Die Lösung, die wir mit dem Code of Conduct zumindest anzustoßen versucht haben, ist: eine Gemeinschaft und ein Netzwerk zu bilden. Von den 153 unterzeichnenden Organisationen sind auch große dabei – wie die Diakonie, die AWO oder der Deutsche Schachverband.

Wir tun uns zusammen, um eine Alternative zu bieten und eine Stimme zu bilden. Das Projekt ist mit der Veröffentlichung des Code of Conduct zunächst abgeschlossen, aber wir überlegen gerade, wie wir als Zivilgesellschaft gemeinschaftlich in Gesprächen auftreten können – etwa zu Standards, Nutzungsebenen oder Richtlinien.

Zusammen mit der Sozialwirtschaft, der Zivilgesellschaft und allen NGOs haben wir eine Marktmacht. Wenn man dann noch Behörden und Bundesämter hinzunimmt, die eine Einkaufsmacht haben und entscheiden können, ob sie große Techgiganten als Tool einbinden oder sich andere vorhandene Lösungen anschauen – dann sind wir kein Feigenblatt, sondern eine wichtige Stimme in der Gesellschaft.

KI-Slop, Manipulation, Fake News, Deep Fakes – wie nehmen wir die Menschen mit und bilden sie?

Menschen benötigen die Möglichkeit zur Weiterbildung. Das ist tatsächlich eine Herausforderung, dafür braucht es viele unterschiedliche Angebote. Es gibt schon einige Angebote wie die Versilberer-Runden für ältere Menschen, Stiftungen, Institute oder Angebote aus der Wissenschaft. Solche Formate braucht es noch mehr.

Weiterbildung braucht es auch am Arbeitsplatz. Der Arbeitgeber sollte ein Eigeninteresse daran haben, dass Mitarbeitende keine Schatten-KI mit fragwürdigen Konten benutzen, und auch daran, dass sie entsprechend geschult werden. Ich würde davon abraten, immer dem nächsten Tool hinterherzulaufen. Besser ist es, eine Basis ins Unternehmen oder in die Organisation zu geben – einen Rahmen, in dem man sich ausprobieren kann. Dann reicht es vielleicht schon, wenn die drei enthusiastischsten Personen einmal in der Woche etwas vorschlagen und man gemeinsam testet.

Man kann natürlich auch Weiterbildungen einkaufen, was ich empfehlen würde. Denn wir sind nicht im Sprint – sondern auf einem Marathon. Es lohnt sich, sich auf die großen Themen zu orientieren, im Kleinen anzufangen und von dort aus zu wachsen. Dann kann jede Führungskraft, jeder Vorstand sagen: "Jetzt habt ihr euch einen Monat oder zwei getestet – jetzt nehmen wir uns die Themen explizit vor und holen Experten ran."

KI-Tools haben einen enormen Energieverbrauch. Für viele zivilgesellschaftliche Organisationen, die nachhaltig agieren wollen, ist das ein Spannungsfeld. Wie sollten wir damit umgehen?

Wir brauchen mehr Forschung, um zu evaluieren, wie die Technologie klimagerechter werden kann, und eine Regulierung.  Es gibt erste Versuche, die Klimabilanz von Large Language Models zu berechnen und anzuzeigen. Das ist weit von perfekt, aber ich glaube, wir gehen da schon einen guten Weg – und Regulierung könnte helfen, das zu beschleunigen.

Ist der EU-AI-Act eine Bremse oder sinnvoll?

Große Plattformbetreiber finden die Regulierung natürlich als bremsend. Gerade beim EU AI Act ist das spürbar. Gleichzeitig sehe ich die Chance, dass Europa einen anderen Weg einschlägt: nicht "Move fast and break things", sondern von Anfang an mitdenkt. Grundsätzlich ist Regulierung nicht per se hemmend – sie kann auch Sicherheit geben für Unternehmen, die Innovation betreiben wollen.

Unsere Regulierungsansätze in Europa sind Teil unserer Identität. Wenn wir diese verbinden mit eigenen Lösungen, etwa Open-Source-Modellen, die sich von der US-amerikanischen und der asiatischen IT-Welt unterscheiden, dann könnte daraus eine dritte Lösung entstehen.

Worüber sollten wir mehr sprechen in der Gesellschaft in Bezug auf KI und Ethik?

Wir sollten uns mit dem Unterschied zwischen kurzfristigem Gewinn und langfristigem Ansatz beschäftigen. Kurzfristig denken viele Organisationen nur an Automatisierung und Effizienzgewinn. Der langfristige Ansatz wäre die Augmentierung des Menschen durch Technologie: Wie kann der Mensch durch KI-Systeme gestärkt werden – auf eine Art, die uns langfristiges Denken erlaubt? Und was machen wir mit den Räumen, die dadurch vielleicht entstehen? Wo kann man Resonanzräume aufbauen, die auch für Neues schaffen?

Ein Beispiel für diese kurzfristige Denke liefert der Arbeitsmarkt, dort gibt es Einstellungsschwierigkeiten bei jüngeren Leuten: Man glaubt, man kann das mit KI ersetzen – dabei sind diese jungen Leute irgendwann auch die Personen, die andere Stellen übernehmen sollen. Wir tun uns keinen Gefallen, wenn wir sie nicht von Anfang an ins Unternehmen holen.

KI, Ethik und Gemeinwohl: Monika Ilves über Chancen für NGOs und Zivilgesellschaft

Podcast "Ethik Digital" abonnieren

Der Podcast Ethik Digital erscheint einmal monatlich und wird von Rieke C. Harmsen gehostet. Der Podcast erscheint als Audio, Video und Text. Alle Folgen des Podcasts Ethik Digital gibt es unter diesem Link. Fragen und Anregungen mailen Sie bitte an: rharmsen@epv.de

Audio-Podcast

Der Audio-Podcast kann bei diesen Kanälen abonniert werden:

Youtube-Playliste mit allen Videos von #EthikDigital

Hier geht's zu den Videos des Podcasts Ethik Digital.

Code of Conduct

Der  "Code of Conduct Demokratische KI" wurde von "D64 – Zentrum für digitalen Fortschritt" entwickelt zusammen mit mehr als 50 gemeinwohlorientierten Organisationen, um eine Selbstverpflichtung für den verantwortungsvollen Umgang mit Künstlicher Intelligenz (KI) zu schaffen: den Code of Conduct Demokratische KI. Ziel war es, gemeinwohlorientierte Organisationen dabei zu unterstützen, einen informierten und reflektierten Umgang mit KI zu finden und so die Zusammenarbeit sowie das Engagement der Zivilgesellschaft zu stärken.

In vier hybriden Workshops, die von Juni 2024 bis November 2025 stattfanden, erarbeiteten die teilnehmenden Organisationen gemeinsam einen umfassenden Orientierungsrahmen. Dieser Rahmen zielt darauf ab, die verantwortungsvolle Nutzung von KI gezielt zu unterstützen. Begleitend dazu entstanden drei White Paper, die den Einsatz von KI in Einklang mit den Werten FreiheitGerechtigkeit und Solidarität untersuchen. Die White Paper bieten praxisnahe Empfehlungen, die Organisationen ermöglichen, ihre Handlungsräume zu begreifen und zu ihren Prioritäten beim Einsatz von KI zu reflektieren. 

Die Ergebnisse stehen ab sofort zur Verfügung und bieten konkrete Handlungsempfehlungen für gemeinwohlorientierte Organisationen. Der Code of Conduct Demokratische KI ist für die Unterzeichnung geöffnet. Auch Unternehmen oder Institutionen der öffentlichen Verwaltung sind herzlich zu einer Unterzeichnung eingeladen. 

Hier geht es zum Dokument des Code of Conduct.