Anzeige

Autonome Waffen
Experten debattieren über Ethik

Foto: pixabay.com/This_is_Engineering

In aktuellen Kriegen spielen autonome Waffen eine große Rolle. Eine Regulierung ist bislang weitgehend gescheitert. Der Militärexperte Frank Sauer empfiehlt, sie auch in der Bundeswehr zu nutzen, der Friedensaktivist Marius Pletsch warnt davor.

Frankfurt a.M. (epd). Der Politologe Frank Sauer hält autonome Waffensysteme auch in der Bundeswehr für unumgänglich. Es komme aber darauf an, sie verantwortungsvoll zu nutzen, sagte der Forschungsleiter des Metis Instituts für Strategie und Vorausschau der Münchener Bundeswehr-Universität. Der Friedensaktivist Marius Pletsch wies hingegen darauf hin, dass aus seiner Sicht autonome Waffen in näherer Zukunft nicht so weit verbessert werden, dass man sie ohne humanitäre Folgen einsetzen könnte.

In den Kriegen in der Ukraine und im Gaza-Streifen ist der Einsatz dieser Systeme mittlerweile alltäglich, vor allem von Drohnen, aber auch von Abwehrwaffen oder von sogenannten Battle Management Systems. Diese Programme können beispielsweise Satelliten- oder Telekommunikationsdaten analysieren und daraus Ziele generieren. Technisch wäre es möglich, dass diese Programme die Bekämpfung der Ziele selbstständig einleiten, im Extremfall durch andere autonome Systeme.

Sauer sagte, für einen verantwortungsvollen Einsatz autonomer Waffen brauche es eine «Triade von Vorhersehbarkeit, Administrierbarkeit und Zurechenbarkeit». Ein Operator, der Funktionen an eine Maschine überträgt, müsse das in möglichst genauer Kenntnis der Lage tun. Er müsse die Waffe bei Bedarf jederzeit wieder kontrollieren können. Und er müsse die Verantwortung übernehmen, falls dann doch etwas mit dem Kriegsvölkerrecht Unvereinbares passiere.

«Loitering munitions, bisweilen auch Kamikaze-Drohnen genannt, haben inzwischen einen festen Platz auf dem Gefechtsfeld», erklärte Sauer. Eine internationale Einhegung solcher Systeme sei nicht gelungen. Soldaten ohne sie jetzt noch in den Krieg zu schicken, wäre unverantwortlich.

Schon seit 2014 gibt es Bestrebungen auf der Ebene der Vereinten Nationen, tödliche autonome Waffensysteme zu regulieren. Im November 2019 einigten sich mehr als 120 Staaten in den Gesprächen zur Konvention über konventionelle Waffen (Convention on Certain Conventional Weapons, CCW) in Genf auf Leitprinzipien, die jedoch kein Verbot und auch nicht verbindlich sind. So soll für alle künftigen Waffensysteme das Völkerrecht gelten. Für deren Einsatz sollen jeweils Menschen verantwortlich bleiben.

Sauer sagte, Versuche einer Kontrolle könnten nicht auf ethischen Argumenten gründen. «Wir sehen ja, was Russland sich darum schert», sagte Sauer. Allerdings seien nicht nur Russland oder China unwillig, sich in die Entwicklung dieser Systeme hineinreden zu lassen. Auch bei manchen westlichen Mächten treffe man auf Unverständnis, wenn man ethisch gegen ein System argumentiere, das militärisch effektiver sei als jeder Mensch. Ein erfolgversprechenderer Hebel für eine Rüstungskontrolle sei die Sorge um die Sicherheit, erklärte der Politologe. Szenarien, in denen Kriege aus dem Nichts heraus entstünden, von Maschinen ausgelöst, machten allen Mächten gleichermaßen Sorge.

Auch der Friedensaktivist Pletsch hält den Weg einer internationalen Regulierung autonomer Waffensysteme für noch nicht für zu Ende gegangen. Anstatt wie bislang in gesonderten Gesprächen im Rahmen des CCW solle man es in der Generalversammlung der Vereinten Nationen versuchen, sagte er. Denn in Genf hätten militärisch starke Staaten gebremst, und in der Generalversammlung könnten sich kleinere Staaten besser einbringen. «Ich würde dafür werben, die Foren zu nutzen, die wir haben, um Rüstungskontrollinstrumente zu stärken», sagte Pletsch.

Pletsch bedauerte, dass Ethik in der Frage um den Einsatz von KI in Waffensystemen kaum noch eine Rolle spiele. «Man muss schon sehen, dass der russische Krieg gegen die Ukraine die Debatte unheimlich verändert hat», sagte er. Dennoch müsse auch Ethik beim Versuch einer internationalen Einhegung eine Rolle spielen: «Um zum Kern des Problems vorzudringen, reicht eine rein völkerrechtliche Betrachtung nicht aus. Wir müssen uns mit der Frage auseinandersetzen, ob wir wollen, dass Menschen zu Datenpunkten reduziert und mit einem Zielprofil abgeglichen werden und dann eine Maschine über Leben und Tod entscheiden kann.»

Autor:

Online-Redaktion

following

Sie möchten diesem Profil folgen?

Verpassen Sie nicht die neuesten Inhalte von diesem Profil: Melden Sie sich an, um neuen Inhalten von Profilen und Orten in Ihrem persönlichen Feed zu folgen.

35 folgen diesem Profil

Kommentare

online discussion

Sie möchten kommentieren?

Sie möchten zur Diskussion beitragen? Melden Sie sich an, um Kommentare zu verfassen.

Anzeige

add_content

Sie möchten selbst beitragen?

Melden Sie sich jetzt kostenlos an, um selbst mit eigenen Inhalten beizutragen.