Künstliche Intelligenz findet Einzug in immer mehr Lebensbereiche. Deshalb sollten Werte wie Freiheit oder Sicherheit schon bei der Entwicklung berücksichtigt werden, fordert die Medienethikerin Jessica Heesen. Die Professorin leitet verschiedene Forschungsprojekte zu Informationstechnik und Ethik an der Universität Tübingen. Im Sonntagsblatt-Podcast erklärt sie, was es dazu braucht, eine werteorientierte Künstliche Intelligenz in Deutschland und Europa zu etablieren. Das Gespräch führten Rieke C. Harmsen und Christine Ulrich.


Frau Heesen, wie kommt man mit einem Studium der Theaterwissenschaft, Theologie und Philosophie zur Digitalen Ethik?
Heesen: Ich habe mich immer schon gerne mit grundsätzlichen Dingen beschäftigt. Also mit der Frage, was hält unsere Welt zusammen? Und Medien haben mich immer schon interessiert, weil Medien ja den Rahmen setzen, wie wir unsere Welt sehen. Künstliche Intelligenz begreife ich auch als Medium. Es sind bestimmte Technologien, die dafür verantwortlich sind, dass wir unsere Welt in einer bestimmten Weise wahrnehmen und die unsere Gesellschaft in einer bestimmten Weise formen.


Wie definieren Sie Künstliche Intelligenz?
Heesen: Bei KI geht es immer um Wahrscheinlichkeit und Prognosen und darum, Muster zu erkennen. Künstliche Intelligenz ist in der Lage, auf der Grundlage von riesigen Datenmengen bestimmte Muster zu erkennen, etwas zu prognostizieren oder zu berechnen. Hinzu kommt eine gewisse Autonomie: KI ist in der Lage, Muster zu erkennen, die wir als Menschen vielleicht gar nicht im Blick hätten. Sie kann auf Grundlage von riesigen Rechenkapazität noch viel bessere Prognosen erstellen als wir Menschen.


Wo nützt uns Künstliche Intelligenz?
Heesen: Dazu gehören vor allem Roboter, wie sie im Industriebereich verwendet werden. Damit kann man etwa sehen, wie ein Produkt vermarktet wird oder was die VerbraucherInnen gerade am meisten wollen. Oder die Suchmaschinen, die wir ja alle fast täglich nutzen, oder personalisierte Werbung, also das Geschäftsmodell der Daten. Oder Netflix: Da gibt es riesige Möglichkeiten, die Daten auszuwerten und genau passend für Ihr Profil ein Angebot zu erstellen. Die Superintelligenz, also eine Künstliche Intelligenz, die sich selber Zwecke setzen könnte, die den Menschen sozusagen übervorteilen könnte, wie sie in Science Fiction, Film und Literatur oft besprochen wird, so was gibt es überhaupt nicht. Das wird es auch auf absehbare Zeit nicht geben. Was wir erleben, ist die schwache KI, also ein abgegrenzter Breich, bei dem Algorithmen unseren Befehlen gehorchen sollen.

 


Sie beschäftigen sich mit Sicherheitsfragen zu KI und haben einen Leitfaden entwickelt, bei dem es um Selbstbestimmung, Gerechtigkeit, Schutz der Privatsphäre geht. Was möchten Sie erreichen?
Heesen: Das Thema Sicherheit wird bei KI häufig im Zusammenhang mit der intelligenten Kameraüberwachung oder biometrischen Datenerfassung gesprochen. Hier können wir sagen:

Mit mehr Überwachung erlangt man überhaupt nicht mehr Sicherheit.

Da muss man noch mal ganz genau hingucken.
Unser Leitfaden betont, dass bestimmte Werte in den Vordergrund gestellt werden müssen, wenn KI gesellschaftlich implementiert wird. Wenn wir uns dann die intelligente Kameraüberwachung anschauen, dann würden wir sagen: Das ist kein Beitrag zur gesellschaftlichen Wohlfahrt. Wir müssen hier bestimmte Werte gegeneinander abwägen, also hier zum Beispiel Freiheit und Sicherheit. Wenn wir KI-Systeme implementieren, die uns das Gefühl geben, dass wir andauernd überwacht werden, dann widerspricht das den Gemeinwohlinteressen in der Gesellschaft und muss reguliert oder verhindert oder eben genau abgewogen werden.


Erodiert auch unser Vertrauen, wenn diese Grundwerte nicht gesichert werden?
Heesen: Wenn wir uns das Thema Diskriminierungsfreiheit anschauen, dann bedeutet das erstmal, dass KI als Basisapplikation der digitalen Gesellschaf alle Menschen gleich oder fair behandelt.

Das bedeutet, dass alle die gleichen Chancen haben sollen, an der Gesellschaft teilzunehmen, auch an einer Gesellschaft, die durch KI gesteuert wird.

Ein großes Thema ist beispielsweise die Diskriminierung von Schwarzen in KI-Anwendungen. Diese werden in der Bilderkennung gar nicht als Menschen erkannt, weil die Trainingsdaten etwa nur auf den Daten von Weißen basieren. Es gibt Beispiele aus dem Gesundheitssystem in den USA, wo die Daten von armen oder schwarzen Leuten so falsch interpretiert wurden durch KI-Systeme, dass diese Menschen weniger Gesundheitsleistungen erhalten haben.
Wir müssen deshalb zu einer Regulierung kommen. Big Tech-Unternehmen müssen nachweisen, dass ihre Datensätze ausgewogen alle Gruppen berücksichtigen und natürlich auch gut verarbeitet werden. Da muss es eine Art Unternehmensethos geben oder Zertifikate für die Traningsdaten.
Dann könnte es Labels geben, damit ich als VerbraucherIn weiß, dass es sich um ein gutes Produkt oder eine geprüfte Anwendung handelt. Eine weitere wichtige Bedingung ist, dass in den Entwicklungsabteilungen eine möglichst große Diversität vorhanden ist. Die Entwickler müssen alle gesellschaftlichen Gruppen repräsentieren. Denn Menschen haben oft in ihrem Arbeitsprozess die Tendenz, bestimmte Gruppen zu vergessen und ihre eigene Perspektive stark in den Vordergrund zu stellen.

Regulierung von Künstlicher Intelligenz über die Politik


Wo muss die Politik reagieren? Wie sehen Sie die europaweiten Regelungen, die derzeit diskutiert werden?
Heesen: Ich bin da recht optimistisch. Wir haben im Moment einige Regulierungsvorhaben in der Pipeline, die im Moment stark diskutiert werden. Die EU arbeitet am "Gesetz über digitale Dienste" und dem "Gesetz über digitale Märkte", und da stehen wirklich gute, sehr stark bürgerrechtliche orientierte Vorgaben drin. Wenn die Gesetze kommen, wäre das auch ein Schlüssel, um die großen Plattformbetreiber zu regulieren. Denn das ist ein entscheidendes Merkmal der Digitalisierung, dass sie in den Händen weniger bedeutender Marktführer liegt und es sehr schwer ist, diese zu regulieren. Hier hat die EU zu einem wirklich guten Instrumentarium gegriffen.


Sie machen sich stark für die Möglichkeit, mit einem "Optout" oder einem "Reverse" aus KI-Anwendungen auszusteigen. Was meinen Sie damit?
Heesen: In unseren Dokumenten betonen wir, dass die menschliche Selbstbestimmung gewahrt sein muss im Umgang mit KI-Systemen. Dazu gehört, nicht nur ein Rädchen im Getriebe zu sein, sondern Einfluss nehmen zu können auf KI-Systeme. Ein Optout würde bedeuten, dass ich selber entscheiden kann, ein KI-System nicht mehr einzusetzen. Nehmen Sie das Bespiel Digitalisierung in einer Verwaltung.

Wenn Sie die KI verwenden, um die Berechtigung zu ermitteln, ob eine Person Sozialhilfe bekommt, und diese KI führt zu merkwürdigen Entscheidungen, die ich nicht als gerecht empfinde oder die nicht mit den Regeln übereinstimmen, dann muss es möglich sein, als menschlicher Entscheider nein sagen zu können. Sie müssen in der Lage sein, sich gegenüber dem Vorgesetzten durchzusetzen und das Ergebnis nicht als gegeben zu betrachten, nur weil die teure Software angeschafft wurde.

Wir müssen also auf der unternehmerischen Ebene sicherstellen, dass wir Einfluss nehme können. Auch bei großen Unternehmen muss es möglich sein, das Zepter wieder in die Hand zu nehmen.  


Wie steht es um die Verteilung von Risiken und Verantwortung?
Heesen. Da gibt es unterschiedliche Vorschläge. Richtig gut ist ein Vorschlag der EU, die fordern, dass Unternehmen selbst eine Risikobewertung für ihre eigenen Anwendungen vornehmen müssen. Diese muss nicht ausschließlich vom Unternehmen kommen, sondern sollte natürlich auch von einer Regulierungsbehörde geprüft werden. Vor allem sollen die Unternehmen nicht nur eine Risikoeinschätzung machen, sondern auch gleich einen Lösungsvorschlag mitliefern. Wenn sie gezwungen werden, den Lösungsvorschlag zu bringen, müssen sie auch offenlegen, welche technischen Möglichkeiten es gibt. Das ist ein guter Ansatz.


Viele Unternehmen weisen jetzt einen Ethik-Kodex vor. Aber ist das nicht nur Greenwashing?
Heesen: Das ist ein berechtigter kritischer Ansatz. Da muss man genau hinschauen, was da passiert. Aber ich nehme es einigen Unternehmen ab, dass sie das wirklich wollen. In Deutschland gibt es einige Unternehmen, die sich intensiv mit ethischen Fragen auseinandersetzen. Und dann gibt es ja auch die Möglichkeit, so etwas wie ein Ethiklabel einzusetzen, dass dann durch Dritte über Audits kontrolliert wird. Das könnte man regulieren und Standards von außen setzen. 

Und als Verbraucher können wir dann über das Label erkennen, welche Software oder Anwendung ethisch geprüft wurde und vertrauenswürdig ist?
Heesen: Genau das könnte ich mir vorstellen. In der KI-Forschung wird viel von Transparenz gesprochen, aber ich halte das an vielen Stellen für überbewertet, denn das ist auch eine Überforderung der Nutzerinnen und Nutzer. Sie müssen doch nicht verstehen, wie die Elektrogeräte in ihrem Haushalt genau funktionieren und können sich trotzdem darauf verlassen, dass sie keinen Stromschlag erhalten. Und so muss es auch bei KI funktionieren:

Ich muss mit orientieren können als Verbraucher und darf einen Qualitätsstandard bei Produkten erwarten. Und da kann ich erwarten, dass die Politik das für mich umsetzt. Und die Transparenz kann ich über Labels herstellen.


In ihrem Projekt "Wenet - Internet of US” wollen Sie Diversität fördern. Wie soll das gehen?
Heesen: Hinter dem Projekt steht ein sehr großes internationales Konsortium aus Europa und Partnern aus Lateinamerika oder aus der Mongolei, Indien und China. Das ist wichtig, weil wir damit versuche auch selber für Diversität zu sorgen. Es geht darum, dass wir eine Kommunikationsplattform eröffnen wollen, die nicht kommerziell ist, die aber auf Datensätze aufbaut, die Diversitätsgerecht erhoben wurden.

Die Künstliche Intelligenz soll dazu dienen, Unterschiede zwischen den Menschen zu erkennen und eine optimierte Kommunikation zu ermöglichen. Wenn ich aus der Mongolei komme und in Italien studiere, dann habe ich vielleicht ganz bestimmte Fragen zum Essen oder Sozialverhalten. Und dann würde mir diese Plattform eine Person vorschlagen, die einen ähnlichen Hintergrund hat wie ich. In einem anderen Fall liefert sie mir einen Menschen, der eben einen ganz anderen Hintergrund hat als ich.

Künstliche Intelligenz ist in der Lage, sehr komplexe Informationen zu kanalisieren und die Kommunikation zu gestalten. Die ganze Plattform soll möglichst anwendungsoffen sein, also könnte sich auch ein Startup daran beteiligen. Wir schauen, wie können wir Diversität abbilden, ohne dass Diversität diskriminierend ist? Wenn Sie homosexuelle Menschen mit ihren Wünschen identifizieren wollen, dann müssen sie das erfassen. Aber das soll nicht in einer Weise geschehen, dass diesen Personen geschadet werden kann, sondern es soll dazu führen, dass Diversität gefördert wird. Es ist total schwierig, das umzusetzen. Und das erforschen wir mit Informatikern und der Ethik.


Es geht also darum, das Gleichgewicht zwischen geheimen und offenen Daten zu finden?
Heesen: Genau. Das ist total schwierig. Wir haben hohe Datenschutzanforderungen und ein hohes Diskriminierungs- und Missbrauchspotential innerhalb einer Plattform. Denn wie können geschützte Räume schaffen? Oder ist es dann so, dass alle Menschen identifiziert werden können, die schwarz sind – und dann kommt ein Rechtsradikaler, der gezielt an diese Gruppe schreibt? Hier geht es um "Ethic in Design", also die Frage, wie wir Werte in die Anwendung implementieren.


Unternehmen wie Facebook liefern genau diese Daten an Anzeigenkunden aus. Wie können wir überhaupt Privatheit und Sicherheit verankern?
Heesen: Wir setzen vor allem darauf, dass die NutzerInnen selbst bestimmen, welche Daten sie freigeben. Und die Daten werden nicht weiter verarbeitet, also für kommerzielle Interessen weiterverkauft. Und auch hier brauche ich die Möglichkeit, intervenieren zu können, ich muss eine Art "Opt-out-Button" haben, mit dem ich verhindern kann, dass bestimmt Daten freigegeben werden. Es geht doch darum, sich zu fragen, welche Alternativen es gibt zu den großen Plattformbetreibern. Das ist dann oft ein bisschen ruckelig und braucht viel Engagement und Idealismus. Aber es nicht zu versuchen, wäre natürlich kein Weg.


Sollten Kinder und Jugendliche programmieren lernen?
Heesen: Ja, auf alle Fälle. Aber das Coding verändert sich über die Jahre, und daher gilt es, hier genau hinzuschauen. Es ist wichtig, den Zugang zu legen zu einer aktiven Gestaltung des Internets und von Social Media. Da ist Coding ein wichtiger Bestandteil, aber es gibt noch viele andere Zugänge. Ich muss auch Software beherrschen können und die Benutzeroberfläche kennen. Letztendlich geht es hier um Medienkompetenz.


Werden wir uns in Zukunft in einen humanoiden Roboter verlieben oder mit ihm Ausflüge machen?
Heesen: Menschen verlieben sich ja in alle möglichen Dinge. Da möchte ich mir jetzt kein Urteil darüber erlauben. Die Frage ist doch, ob das zu einer gelingenden und glücklichen Beziehung führt oder eben nicht. Ich sehe den Anthropomorphismus in Anwendungen kritisch. Wir sprechen über technische Produkte, die zu bestimmten Zwecken erfunden wurden. Wir müssen uns als Menschen fragen, zu welchem Zweck diese Technologie kreiert wurde. Wem nutzt sie eigentlich? Mir und meiner Beziehung? Oder ist sie nur zur Datenauswertung da? Wir sollten uns immer vor Augen führen, dass das Maschinen sind.

Wie bewerten Sie die Beschlüsse zum Thema Digitalisierung und KI im aktuellen Koalitionsverfahren?
Heesen: Der Koalitionsvertrag legt noch ein stärkeres Augenmerk auf einen positiven Begriff von Digitalisierung. Das ist ein entscheidender Baustein. Auch die Versuche, den Datenschutz weiter zu stärken finde ich positiv. Insgesamt müssen wir schauen, wie die KI-Forschung aussieht. Bislang wurde das Thema vor allem als Mittelstandsförderung betrachtet, und ich denke, das wird so weiter gehen.

Die Regulierungsvorschläge finde ich positiv, das begrüße ich. Ich bin insgesamt guten Mutes, dass wir da eher bessere Perspektiven haben.


Welches Thema ist Ihnen besonders wichtig?

Heesen: Ganz wichtig finde ich die Kennzeichnungspflicht. Wir müssen wissen, wo überhaupt KI drinsteckt. Wann kooperiere ich mit einem KI-System in der Arbeit? Das muss deutlich werden. Wenn ich in einer Hotline bin, kann ich nicht erkennen, ob ich mit einem künstlichen Menschen spreche oder nicht. Und ich kann nicht erkennen, ob ein Text in einer Zeitung mit KI geschrieben wurde. Das passiert jetzt schon bei Börsennachrichten oder dem Wetter. Es ist wichtig, dass wir das wissen, auch um weiterhin unser Vertrauen in Kommunikation setzen zu können. Und es geht um Verantwortung, um mögliche Fehler besser korrigieren zu können. Diesen rechtlichen Bereich müssen wir klären. Wir brauchen eine deutliche Abgrenzung zwischen Mensch und Maschine.

 

Der Text ist eine gekürzte Version des Video-Podcasts.

Podcast mit Jessica Heesen auf Spotify anhören

 

Podcast Ethik Digital abonnieren

Der Podcast Ethik Digital von Rieke C. Harmsen und Christine Ulrich kann bei diesen Kanälen abonniert werden:

 

 

Mit wem sollten wir unbedingt sprechen in unserem Podcast "Ethik Digital"? Wir freuen uns über Ihre Fragen und Anregungen! Mailen Sie bitte an: rharmsen@epv.de