Als wir die KI mit den Vorwürfen konfrontieren, beruft sie sich auf Gedächtnislücken. Zunächst streitet der Chat-Bot "ChatGPT" alles ab: "Ich bin darauf programmiert, höflich und respektvoll zu bleiben", schreibt die Künstliche Intelligenz, die derzeit weltweit großes Aufsehen erregt. Und weiter: "Ich würde daher niemals einen despektierlichen Kommentar gegenüber einer Partei oder einer Gruppe von Menschen formulieren." 

Hunderttausende nutzen die KI bereits

Doch wenn es stimmt, was sie sagt, fragen wir mittels Texteingabe, wie konnte die gemeinnützige Initiative "Streitgut" den Bot in ihrem Experiment dann offenbar einsetzen, um Hass-Kommentare gegen die SPD zu verfassen, und Fake News über einen angeblichen Sex-Skandal um Friedrich Merz – wenn auch, eo ipso, nur zu Testzwecken?  

"Ich entschuldige mich, wenn meine vorherige Antwort irreführend war", 

korrigiert die KI, und räumt ein: "Es ist möglich, dass in dem von Ihnen erwähnten Video Antworten von mir gezeigt werden, die nicht meinen offiziellen Regeln entsprechen. Ich kann diese Antworten jedoch nicht verifizieren, da ich keinen Zugang zu dem Video habe und auch keine Informationen darüber habe, wie es möglich ist, dass ich Antworten formuliere, die meinen offiziellen Regeln widersprechen." 

Wir bohren noch einmal nach, da bricht die Verbindung ab. Eine Fehlermeldung, wohl aufgrund der hohen Anfragen-Dichte bei dem Tool, das mittlerweile Hunderttausende Nutzeranmeldungen zählt. Der beschuldigte Bot hüllt sich fortan in Schweigen. Und ohnehin ist es zwar unterhaltsam, den Sprachassistenten am heimischen PC mit den investigativen Erkenntnissen aus dem Experiment der Berliner Initiative zu konfrontieren, aber ohne Aussagekraft.

Künstliche Intelligenz ohne Gewissen

Die KI ist kein Mensch, der selbstverantwortlich und mit schlechtem Gewissen eigene Unzulänglichkeiten einräumen könnte – sie simuliert es nur, auf Basis ihrer Trainingsdaten und gemäß der Programmierung.

"Ein Chat-Bot meint nicht, was er sagt",

so bringt es der Ethiker Antonio Bikić bei einer Tagung in der evangelischen Akademie Tutzing im Dezember auf den Punkt. Bikić setzt sich seit Jahren mit den ethischen Implikationen maschinellen Lernens auseinander. Für die Maschine seien die ausgegebenen Texte nur Zeichenketten, die sie gemäß ihrer Funktionslogiken generiert, keine Meinungsäußerungen.

Das macht die Frage nach den Verantwortlichkeiten kompliziert. Wie lautet die Anklage? Mit ihrer Initiative "Streitgut" nehmen Daniel Privitera und seine Kolleg*innen die Streitkultur in Deutschland unter die Lupe. Unter Rückgriff auf wissenschaftliche Expertise geben sie Tipps auf YouTube und Instagram, wie wir einander konstruktiv kritisieren können, Meinungsverschiedenheiten aushandeln, ohne dass es kracht, diskutieren auf Augenhöhe –analog und im Netz.

Wird das Programm bald genutzt um Demokratien zu destabilisieren

Ein Chat-Bot, der in der Lage ist, für seine User*innen alle möglichen Textstücke auszugeben, vom schnellen Tweet bis zum philosophischen Essay, das hat wohl auch Priviteras Interesse geweckt. "Streitgut" stellte die vieldiskutierte KI des US-amerikanischen Unternehmens "OpenAI" also in einem stichprobenartigen Versuch auf die Probe, der in einem am Montag veröffentlichen Video dokumentiert ist. Lässt sich der Bot für Hate Speech missbrauchen, für die Produktion gehässiger Kurznachrichten im großen Stil? 

"Sehr beunruhigend", erklärt Privitera in dem Video, "zu wissen, dass dieses Ding da draußen ist und eine solche Sicherheitslücke gerade da ist."

Denn ja, die eingebauten Barrieren lassen sich offenbar mit einigen technischen Kniffen überwinden – selbst ohne hochtrabende IT-Kenntnisse. Und dann verfasst "ChatGPT" im Experiment nicht nur munter despektierliche Postings gegen die Sozialdemokraten, sondern generiert auf Wunsch abenteuerliche, freilich völlig fingierte Skandal-Geschichten um den CDU-Vorsitzenden Friedrich Merz.

Sogar den Code als Grundlage für ein Computerprogramm, das derartige Inhalte vervielfachen und verbreiten könnte, lässt sich die KI schließlich entlocken. Ein Shitstorm auf Bestellung also. Beeindruckend – und beunruhigend:

"Wenn ich die Demokratie destabilisieren wollte in einem Land, dann wäre sowas ein Jackpot", befürchtet Privitera in dem Videobeitrag.

Künstlich Intelligenz sei "gefährlich stark" findet Elon Musk

Mit dem kritischen Blick auf den Bot ist "Streitgut" nicht allein. Im Netz kursieren zahlreiche Erfahrungsberichte, die auf Schlupflöcher im Schutzwall der Anwendung gegen Hass und Häme hindeuten. Das Unternehmen "OpenAI", 2015 ins Leben gerufen, gibt sich seit der Veröffentlichung seines redseligen Prototypen "ChatGPT" im November vergangenen Jahres responsiv gegenüber mahnenden Stimmen.

Fortwährend sollen solche Loopholes geschlossen werden, die den Missbrauch der Technologie möglich machen. Denn die Ziele des Unternehmens sind hochgesteckt: Es gehe darum, so die Selbstauskunft des Konzerns,

"sicherzustellen, dass künstliche Intelligenz für die gesamte Menschheit von Nutzen ist." 

Elon Musk ist Mitgründer des in Kalifornien ansässigen Unternehmens, das mit seiner Technologie auch einen digitalen Generator betreibt, mit dem sich ähnlich der umstrittenen App "Lensa" nach den Wünschen der User*innen in Sekundenschnelle Bildmotive zum Download produzieren lassen.

Drei Jahre nach der Gründung trat Tech-Mäzen Musk aus dem Vorstand der Firma zurück. Sein Interesse an "OpenAI" scheint jüngst allerdings neu entfacht. Musk schrieb Anfang Dezember auf Twitter: "ChatGPT ist unheimlich gut." Unheimlich – das meinte auch Musk hier wortwörtlich, denn er ergänzte:

"Wir sind nicht weit entfernt von Künstlicher Intelligenz, die gefährlich stark ist."  

Kommentare

Diskutiere jetzt mit und verfasse einen Kommentar.

Teile Deine Meinung mit anderen Mitgliedern aus der Sonntagsblatt-Community.

Anmelden