Der Philosoph Nathan Wood forscht über Militärethik, Völkerrecht, autonome und KI-gestützte Systeme im Sicherheitsbereich und leitet seit 2024 das interdisziplinäre Projekt Militärtechnik und Ethik (MilEth) des Bundesministeriums für Bildung und Forschung. Im Podcast "Ethik Digital" spricht er mit Moderatorin Rieke C. Harmsen über digitale Ethik in autonomen Waffensystemen. 

Rieke C. Harmsen: Wie kommt man zu einem Thema wie Militärethik?

Nathan Wood: Ich bin Philosoph und Ethiker, das Thema Militär interessiert mich, weil es dort um komplexes menschliches Verhalten geht, wo man nicht so leicht sagen kann, was richtig und falsch ist. Ich denke: Wenn wir im Krieg nicht sehen, was richtig ist, dann haben wir keine Chance. Im Krieg gibt es natürlich viele graue Felder, wo wir nicht wissen, was richtig und falsch ist, aber es gibt auch ganz klare Linien, wo wir sagen: Halt, das geht gar nicht. Und ich habe mich immer schon für die technische Seite der Militärethik interessiert, weil es dort Neues und Spannendes gibt und krasse Fragen diskutiert werden.

Rieke C. Harmsen: Die Militärtechnik ist meist der Bereich, in dem viel investiert wird und sich schnell etwas ändert. In der Ukraine werden derzeit so viele Drohnen eingesetzt wie noch nie. Wie schätzen Sie die Situation ein – kommen wir mit ethischen Fragen überhaupt noch hinterher?

Nathan Wood: In der ethischen Forschung müssen wir aktuelle Themen im Auge behalten. Aber wir sollten daran denken, dass es viele Dinge gibt, die neu aussehen, aber nicht wirklich neu sind. In der Ukraine lesen wir viel über den Einsatz von Künstlicher Intelligenz in autonomen Systemen. Was wir aber dort sehen, sind hauptsächlich sogenannte First-Person-View-Drohnen. Diese werden von Menschen gesteuert und beruhen oft auf einer alten Technologie, wie wir bei diesem Spoofing und Jamming und diesem Katz-und-Maus-Spiel zwischen der Ukraine und Russland sehen können. Teilweise wurden sogar Drohnen eingesetzt, die an einem Draht hängen, weil diese nicht gespooft oder gejammt werden können. Manchmal ist die beste Technik die von vor 60 Jahren. 

Rieke C. Harmsen: In Ihren Publikationen kirtisieren Sie die Art und Weise, wie über autonome Waffensysteme gesprochen wird. Sie sagen, dass die Diskussionen in die Irre führen und dass es einen Hype gibt um Begriffe wie Killerroboter. Wie sollte die Diskussion denn geführt werden?

Nathan Wood: Der Hype kommt von zwei Seiten. Auf der einen Seite gibt es Firmen oder Start-ups, die unbedingt etwas verkaufen wollen und Künstliche Intelligenz deshalb hypen. Sie behaupten, damit werde die Wirtschaft schneller und profitabler oder das Gesundheitssystem werde auf einmal schlank und effektiv oder das Bildungssystem werde besser, ohne dass wir mehr Lehrer bräuchten. Im Militärbereich passiert genau das Gleiche, hier wird erklärt, es könnten Kosten oder Personal gespart werden. 

Der Hype kommt auch von den Kritikern von autonomen Waffensystemen, sie erklären die krassen Entwicklungen und sagen, da kommen die "Terminators", wir haben keine Erfahrungen und wissen nicht, was passieren wird. 

Faktisch vollzieht sich die Entwicklung von militärischen Systemen langsam, das meiste ist sehr ähnlich zu den Systemen, die es schon vor 10-15 Jahren gab. Dazu zählen Systeme wie Anti-Missile-Systeme oder Abwehrsysteme für Raketen oder Abwehrsysteme zum Schutz von Panzern. Die nicht neu, nicht krass und nicht etwas, bei dem wir neu denken müssen.

Wenn wir denken, es sei alles neu und wir bräuchten deshalb ein neues Gesetz, dann verlieren wir, was wir schon haben. Es ist wichtig, dass wir die Ähnlichkeiten sehen und erkennen, wo sich neue Systeme an alte Technologien anlehnen und schauen, was wir daraus lernen können. 

Rieke C. Harmsen: Und wo sehen Sie dann die größten Herausforderungen? 

Nathan Wood: Ich finde, es ist wichtig, die Unterschiede zu betrachten. Ein Beispiel für einen dieser realen Unterschiede ist das Thema Geschwindigkeit. Wir wissen, dass sich die Geschwindigkeit der Systeme in einem Krieg erhöhen wird. Die Systeme können schneller entscheiden. Das ist zunächst weder schlimm noch gut, sondern einfach ein Fakt. Wenn wir autonome Waffensysteme einsetzen, dann gibt es Entscheidungen, die in Maschinenzeit getroffen werden. Das birgt Risiken, und die müssen wir betrachten.

Menschen werden in die Entscheidungen von Maschinen, die wirklich autonom handeln, nicht eingreifen können, denn die würden zu schnell entscheiden. Aber das heißt nicht unbedingt, dass solche Systeme ein Problem sind. Sondern es bedeutet, dass wir im Voraus entscheiden müssen, welche maschinelle Handlung als problematisch gesehen wird, und wo wir beispielsweise wollen, dass die Maschine stoppt und fragt, was sie tun soll. Diese Entscheidung ist dann wichtig, wenn es darum geht, zu schauen, wer die Konsequenzen einer solchen Entscheidung trifft. 

Rieke C. Harmsen: Es geht da um die Frage nach der Verantwortung. Wer trägt die Verantwortung? Das Militär, die Entwickler, derjenige, der das Knöpfchen drückt, die politischen Entscheider?

Nathan Wood: Viele Kritiker fürchten, dass autonome Systeme oder KI-fähige Systeme die Entscheidung selber treffen. Wenn diese Systeme entscheiden, dann weiß man nicht, wer verantwortlich sein soll. Ein System entscheidet nicht einfach etwas. Es führt Prozesse durch, und diese Prozesse haben wir in das System hineinprogrammiert. Und die Systeme werden von einem Menschen eingesetzt, sie sind nicht einfach so da. Oft haben die Systeme auch nur eine kurze Laufzeit und können nur für Stunden oder einen Tag oder nur in einem begrenzten geografischen Raum genutzt werden. 

Es ist relativ klar, dass ein Mensch dafür verantwortlich ist, zu wissen, ob es in diesem Raum Zivilisten gibt oder ob es andere Gefahren gibt, die zu berücksichtigen sind. Wichtig ist also der Entscheidungsprozess, den ein Soldat durchführen muss. Und diesen haben wir mit jedem Waffensystem, das wir im militärischen Bereich nutzen. Mit der Nutzung und dem Einsatz kommen hunderte von Fragen auf, die den Menschen in die Verantwortung bringen. 

Und dann gibt es noch das Thema, dass ein System etwas macht, was man nicht erwartet. Was passiert, wenn etwas schief geht? Ist das dann ein Unfall? Selbst bei der simpelsten Munition kann es Dinge geben, die einfach nicht funktionieren. Wir müssen schauen, ob die Menschen verantwortungsvoll alle Systeme geprüft haben und durchdacht haben, was sie tun. 

 

Podcast "Ethik Digital" abonnieren

Der Podcast Ethik Digital erscheint einmal monatlich und wird von Rieke C. Harmsen gehostet. Der Podcast erscheint als Audio, Video und Text. Alle Folgen des Podcasts Ethik Digital gibt es unter diesem Link. Fragen und Anregungen mailen Sie bitte an: rharmsen@epv.de

Audio-Podcast

Der Audio-Podcast kann bei diesen Kanälen abonniert werden:

Youtube-Playliste mit allen Videos von #EthikDigital

Hier geht's zu den Videos des Podcasts Ethik Digital.

Mensch-Maschine-Interaktion ist wichtig in Militärethik

Rieke C. Harmsen: Und wo sehen Sie ein Problemfeld? Wo sollten wir mehr hinschauen?

Nathan Wood: Was ich sehe als Problemfeld ist der Zeitraum zwischen dem Einkauf eines Systems vom Militär und dem Einsatz. Wir sprechen meistens über die Entwicklung von militärischen Systemen, also die Programmierung. Und wir sprechen über den Einsatz der Systeme. Aber wir sprechen kaum über den Zeitraum, in dem Soldaten trainiert werden.

Und dieses Mensch-Maschine-Team halte ich für sehr wichtig. Denn wenn wir einen verantwortungsvollen Einsatz haben wollen, dann ist es nicht nur wichtig, dass die Systeme vorhersehbar sind oder funktionieren. Dann ist ebenso wichtig, dass die Menschen wissen, wie das System funktioniert. Wir sprechen dauernd über das Training von Maschinen, aber nicht vom Training der Menschen. Wenn wir aber Probleme verhindern wollen, dann müssen die Leute, die die Systeme nutzen, auch genug davon verstehen, um sie vernünftig einzusetzen. 

Rieke C. Harmsen: Vor dem Ukraine-Krieg gab es noch einige Pläne für globale militärische Abkommen. Aufgrund der aktuellen politischen Lage scheint hier nichts mehr voranzugehen. Wie nehmen Sie das wahr? 

Nathan Wood: Ja, ich weiß nicht, ob hier noch irgendetwas vorangehen wird. Aber ich finde das nicht so dramatisch oder schlecht, denn das Völkerrecht ist sehr klar und es gibt schon einige Gesetze etwa zur Entwicklung neuer Waffensysteme. 

Ich finde es wichtiger, dass die Prozesse, die wir anstreben, vernünftig vorwärtskommen und die richtigen Akteure auch dabei bleiben. Denn wenn ein Verhandlungsprozess zu schnell ist, dann verliert man Länder wie USA, Indien, China – und dann hat man am Ende vielleicht ein Abkommen, bei dem die entscheidenden Länder fehlen. Lieber wir haben ein vernünftiges Abkommen nach zehn Jahren als ein sinnloses in zwei Jahren. 

Außerdem ist ein Abkommen nicht der einzige Weg, etwas zu regulieren: Es können Handbücher erstellt werden, es gibt allgemeine Dokumente des ICRC oder der UN und es kann Richtlinien geben, an denen sich die Unternehmen orientieren. Die folgen dann nicht unbedingt dem Völkerrecht, aber sie sind trotzdem nützlich und können ein wichtiger Schritt sein in Richtung eines Abkommens. 

Podcast Ethik Digital: Nathan Wood über Militär und Ethik

Militärische Forschung in Europa

Rieke C. Harmsen: Wo steht die ethische militärische Forschung in Europa oder Deutschland im weltweiten Vergleich? 

Nathan Wood: Dieser Forschungsbereich ist relativ groß, da ist auch Wachstum dabei. Leider ist die Forschung oft sehr spezifisch: Hier sind die Ethiker oder die Juristen, die haben aber keine Ahnung von den technischen Systemen, und dort gibt es die Ingenieure, die kennen ein System, wissen aber wenig über ethische Fragestellungen. 

Die Nachwuchs-Forschungsgruppe, die ich leite, versucht, interdisziplinär zu arbeiten. Ich habe ein wenig Kenntnisse in Ingenieurwissenschaft, weil ich damit angefangen habe, aber ich bin ausgebildeter Ethiker. Und in unserer Gruppe gibt es einen Luftfahrtingenieur, einen Systemingenieur und einen KI-Experten. Wenn ich eine Frage habe, kann ich den Gang einfach heruntergehen und einen Kollegen fragen, ob das System etwas überhaupt kann. Und dann erledigt sich unter Umständen meine Frage schon. Keiner muss Experte sein für alle Themen, aber jeder sollte wissen, wo er die Expertise anderer nutzen kann. 

Rieke C. Harmsen: Sollen Ihre Forschungsergebnisse in der Wirtschaft oder beim Militär landen? 

Nathan Wood: Unser Forschungsprojekt besteht seit November 2024, wir sind zu viert und können darüber hinaus auf externe Kollegen der Uni zurückgreifen. Wir wollen den Kontakt zur Bundeswehr und zur Rüstungsindustrie. Im Endeffekt wollen wir Strukturen und Systeme erforschen und ein "Whitepaper" entwickeln, dass Ratschläge enthält für die Bundeswehr ebenso wie die Industrie. Wir wollen eine Perspektive geben, wie und wo Künstliche Intelligenz in der Verteidigung eingesetzt werden kann, welche Risiken damit verbunden sind, und Ideen vermitteln, wie diese Fragestellungen durchdacht werden können. Wir wollen niemand sagen, was sie machen sollen, aber eine Methodologie entwickeln, die zeigt, wie sie vorangehen können, um eine Entscheidung zu treffen. 

Rieke C. Harmsen: Wie optimistisch oder pessimistisch sind Sie in Bezug auf Künstliche Intelligenz und die weitere Entwicklung autonomer Waffensysteme? 

Nathan Wood: Ich finde es wichtig, die Sachen auf zwei Ebenen anzuschauen. Es gibt begrenzte KI-Systeme, die für bestimmte Zwecke gebaut werden mit spezifischen Trainingsdaten, für die ich sehr viel Potenzial sehe. Diese Systeme werden entwickelt, um spezifische Probleme zu lösen. 

Bei den großen KI-Systemen wie den Sprachmodellen oder Chatbots gibt es viele Anwendungen, die interessant sind, anderes funktioniert überhaupt nicht gut oder bringt zu viele Risiken mit sich. Ich glaube, dass es bei diesen Systemen ein "Backlash" geben wird, weil wir sehen werden, welche Verluste damit auch verbunden sind.

Für den militärischen Bereich sollten wir deshalb möglichst cool und rational bleiben und nicht beim Hype um die KI-Entwicklung mitmachen. Eher kritisch sehe ich deshalb auch die vielen Startups im militärischen Bereich, denn diese haben meist wenig Erfahrungen. Wichtig ist, dass wir genau wissen, was die neuen Systeme können oder nicht können. Denn wir müssen das Vertrauen haben, dass wir ein neues System vernünftig und verantwortungsvoll einsetzen können.  

 

Hinweis zum Podcast Ethik Digital

Dies ist das redigiert und stark gekürzte Gespräch des Podcasts "Ethik Digital" vom April 2025. Das Gespräch wurde mit einer geringen Bandbreite aufgezeichnet, es gab einige technische Hänger, die über das Schnittsystem von Riverside automatisiert ausgeglichen wurden, weshalb es im Video häufiger zu seltsamen Schnitten kommt. 

Das vollständige Video kann auf Youtube unter diesem Link angeschaut werden. Der Podcast ist auf allen gängigen Formaten zu hören.

Kommentare

Diskutiere jetzt mit und verfasse einen Kommentar.

Teile Deine Meinung mit anderen Mitgliedern aus der Sonntagsblatt-Community.

Anmelden