Cornelia Diethelm ist Schweizer Expertin für digitale Ethik. Sie hat das Center for Digital Responsibility gegründet und in der Bildung, Beratung unterwegs. Kürzlich wurde sie zu den Top 100 Frauen in der Schweiz ernannt. Im Podcast Ethik Digital erzählt sie, wie Künstliche Intelligenz unsere Arbeitswelt verändert - und weshalb Unternehmen und Organisationen jetzt dringend umschwenken müssen.
Wie steht es um digitale Ethik in der Schweiz?
Cornelia Diethelm: Je mehr wir die KI-Technologie nutzen, desto mehr stellen sich auch Fragen. Nicht nur was ist technisch möglich, sondern auch: wofür wollen wir KI überhaupt einsetzen? Die Relevanz dieser Technologie ist hoch, denn sie ist sehr breit einsetzbar – von einfachen automatisierten Prozessen bis hin zu sehr komplexen Modellen, uns helfen können, Entscheidungen zu fällen.
Künstliche Intelligenz kann uns helfen, fotorealistische Bilder zu generieren, Nachrichtentexte zu schreiben oder die menschliche Sprache nachzuahmen. Leidet der Wahrheitsgehalt der KI-generierten Inhalte?
Cornelia Diethelm: Viele Menschen wissen nicht, wie diese Systeme funktionieren. Sie haben das Gefühl, dass ChatGPT auf eine Datenbank zugreift, wie wir das von einer Suchmaschine kennen. Das ist nicht der Fall, sondern es greifen Wahrscheinlichkeitsrechnungen.
Diese Systeme haben kein Verständnis von dieser Welt. Ob etwas stimmt oder nicht, müssen wir entscheiden. Deshalb ist dieses kritische Beurteilen immer extrem wichtig. Wir bleiben in der Verantwortung.
Es ist kein Problem, wenn ChatGpt einen Fehler macht, aber es ein Problem, wenn ich diesen Fehler unreflektiert übernehme. Ich muss immer checken, ob die Ergebnisse stimmen.
Ob Unterricht an Schulen oder Fortbildungen bei Wirtschaftsunternehmen: Wo sind die größten Lücken? Wo müssen wir Wissen über KI in die breite Gesellschaft bringen?
Cornelia Diethelm: Gefährlich ist vor allem das Verständnis, diese Systeme seien neutral. Das ist ein Übel. Denn davon leitet sich dann dieses unkritische, unreflektierte Übernehmen von Informationen ab. Deshalb zeige ich bei Schulungen immer zuerst das "Big Picture", also wo wir KI schon länger nutzen, wie zum Beispiel Spamfilter oder Empfehlungsalgorithmen. KI wird von Menschen gemacht, es ist wie ein Spiegel der Gesellschaft.
Wie können wir die Verantwortung wieder an die Menschen delegieren?
Cornelia Diethelm: Das Allerwichtigste ist die Sensibilisierung. Wie funktioniert KI? Was gibt es für gute Beispiele? Was gibt es für schlechte Beispiele? Nicht nur Mitarbeiter, auch die Entscheidungsträgerinnen müssen in diese Schulungen, denn sie geben die Aufträge oder lancieren Projekte.
Wir müssen eine Wissensbasis schaffen, damit Entscheidungsträger und Mitarbeiter die Systeme beurteilen können. Und ich empfehle, dass Unternehmen eine Leitlinie schreiben. Die muss gar nicht so lang sein, aber sehr konkret und verständlich, damit die Mitarbeitenden selber entscheiden können, wo KI-Systeme für ihre Tätigkeit sinnvoll eingesetzt werden können.
Dienen Leitlinien nicht ganz häufig nur dem Image des Unternehmens?
Cornelia Diethelm: Ich glaube, es gibt insgesamt einen Nachholbedarf. Viele Unternehmen machen eine Vogel-Strauß-Politik – so nach dem Motto ich weiß nichts und ich gebe nichts vor. Andere scheuen sich vor den finanziellen Ausgaben. Oder es wird der Ball flach gehalten, aber die Unternehmen wissen, dass die Mitarbeiter ihre geschäftlichen Tätigkeiten mit ihrem privaten Account managen. Das ist natürlich ein Desaster, auch aus Gründen der Sicherheit. Aber die Mitarbeiter sind nicht blöd, die werden einfordern, dass sie KI als Instrument nutzen dürfen.
Wie stark ist die Regulierung von KI in der Schweiz geregelt?
Cornelia Diethelm: In der Schweiz ist der Staat sicher liberaler und weniger aktiv als in Europa oder in Deutschland. Das heißt, wir regulieren relativ wenig, auch beim Datenschutz. Das ist wie eine Light-Version der Datenschutzgrundverordnung. Die Herausforderung ist sicher immer die Durchsetzung der Gesetze.
Das Problem verschärft sich, weil die meisten tollen Tools, die wir nutzen, weder aus Europa noch aus der Schweiz stammen, sondern aus den USA. Das ist eine Herausforderung, eine unschöne Abhängigkeit, die wir da haben. Ich denke, es gibt einen gewissen Rahmen, den kann man nicht den einzelnen Userinnen und Usern überlassen, sondern den muss der Staat setzen.
In deinem Center for Digital Responsibility denkst du über die Zukunft von KI nach. Mit welchen Zukunftsfragen sollten wir uns intensiv beschäftigen?
Cornelia Diethelm: Das Eine ist sicher diese Abhängigkeit und Machtkonzentration in der gesamten Digitalisierung. Wir haben es immer mit den gleichen vier oder fünf großen Playern zu tun. Ich glaube, das ist ein sehr wichtiger Punkt.
Das Zweite ist eine sozial verträgliche Transformation. Also ich bin nicht der Meinung, dass wir eine Massenarbeitslosigkeit bekommen werden. Aber ich denke, dass wir eine schnelle und tiefgreifende Veränderung erleben. Und ich würde mir wünschen, dass Unternehmen mehr in die Zukunft schauen und frühzeitig überlegen, welche Job-Profile sie aufbauen müssen und wie sie Lernende in Zukunftsfelder mit hineinnehmen.
Und in Bezug auf das Individuum?
Ein großes Thema ist die Vermenschlichung von Maschinen. Das ist eine ethische, aber auch eine psychologische Thematik. Wir werden immer individueller. Damit steigt die Gefahr von Vereinsamung. Viele Menschen haben wenige Kontakte mit anderen, sie trauen sich nicht mehr, rauszugehen und wissen nicht, wie sie in Kontakt kommen. Die sind natürlich sehr anfällig für KI-Systeme, also Software, die sie immer versteht und bestärkt.
Hier sehe ich schon ein Bedürfnis, das mit solchen Systemen abgedeckt wird. Das führt zu einer emotionalen Abhängigkeit oder auch zu einer Enttäuschung. Das kann natürlich auch manipulativ genutzt werden. Ich vertraue diesem System wahnsinnig viele Daten an. Da sind wir sehr verletzlich.
Wie können wir das Thema Digitale Ethik in die breite Öffentlichkeit bringen?
Cornelia Diethelm: Im Moment ist die Faszination für die Technologie groß. Es gibt Schlagzeilen, die weit mehr versprechen als das, was diese Technologie leisten kann. Wir sollten KI aber auch nicht nur als Hype betrachten, sondern versuchen, eine realistische Sicht auf die Dinge zu bekommen. Wir müssen überlegen, wo wir die Technologie nutzen und wie wir das verantwortungsvoll aufsetzen.
Ich wehre mich aber gegen Angstszenarien. Man kann nicht mit Roboterbildern kommen und sagen, freut euch auf die KI oder auf die digitale Transformation. Ich glaube, es geht weiterhin um den Menschen. Wir haben gelernt, mit Daten umzugehen, und genau dieses Wissen brauchen wir auch, wenn es um künstliche Intelligenz geht.
Auf Linkedin wurde kürzlich diskutiert, weshalb sich mehr Frauen mit dem Thema Digitale Ethik beschäftigen. Stimmt diese Wahrnehmung?
Cornelia Diethelm: Interessant, das habe ich mir gerade kürzlich auch wieder überlegt. Wenn ich so schaue, wer schreibt schlaue Bücher oder ist auf LinkedIn beim Thema Digitale Ethik präsent, dann bin eher mit Frauen verbunden. Aber die Ethik-Officers in den Unternehmen, die dann vielleicht noch weit oben positioniert sind, sind dann wieder eher Männer.
Das Gespräch ist eine stark gekürzte Version des Podcasts Ethik Digital.
Podcast "Ethik Digital" abonnieren
Der Podcast Ethik Digital erscheint einmal monatlich und wird von Rieke C. Harmsen gehostet. Der Podcast erscheint als Audio, Video und Text. Alle Folgen des Podcasts Ethik Digital gibt es unter diesem Link. Fragen und Anregungen mailen Sie bitte an: rharmsen@epv.de
Audio-Podcast
Der Audio-Podcast kann bei diesen Kanälen abonniert werden:
Youtube-Playliste mit allen Videos von #EthikDigital
Hier geht's zu den Videos des Podcasts Ethik Digital.