Business & TrendsKriegerische Intelligenz

Experten weltweit diskutieren über autonome Waffensysteme mit Blick auf ihre Implikationen für das Kriegsvölkerrecht, die internationale Sicherheit und die Rüstungskontrolle. Schon heute werden Drohnen in bewaffneten Konflikten eingesetzt. Stehen wir mit der rasanten Entwicklung autonomer Waffensysteme und Künstlicher Intelligenz an der Schwelle zu einer völlig neuen Ära der Kriegsführung?

Werden kriegsrelevante digitale Systeme mit KI-Elementen ausgestattet, können im Prinzip Maschinen darüber entscheiden, ob sie Menschen töten oder gar einen Krieg beginnen. Digitale Technologien stellen nicht nur Gesellschaften vor ethische Herausforderungen (z.B. Überwachung, Desinformation, gleichberechtigter Zugang), sie beeinflussen auch die Kriegsführung der Zukunft und können Rüstungskontrolle und Abrüstung gefährden.

Die Rolle des Menschen

Für eine erfolgreiche Debatte auf wissenschaftlicher und völkerrechtlicher Ebene ist es von entscheidender Bedeutung, sich zunächst auf ein gemeinsames Vokabular und ethische Grundsätze zu verständigen. Bei autonomen Waffensystemen steht die Frage im Mittelpunkt, welche Rolle der Mensch als Entscheidungsträger in bewaffneten Konflikten spielt. Vollständig autonome Waffensysteme würden völlig ohne menschliche Aufsicht oder Kontrolle funktionieren. Bereits jetzt arbeiten einzelne Systeme teilautonom, beispielsweise abstandsaktive Schutzsysteme von Panzern. Der Einsatz von tödlichen autonomen Waffensystemen („lethal autonomous weapon systems“) wirft nicht nur Fragen der ethischen Verantwortung auf, sondern gefährdet auch die Stabilität und Sicherheit auf globaler Ebene – erhöhte Kriseninstabilität, teure Rüstungswettläufe und eine gesenkte Einsatzschwelle könnten die Folgen sein. Um zu gewährleisten, dass KI-Algorithmen Nichtkombattanten zuverlässig erkennen, ist die Entwicklung der sogenannten „erklärbaren“ Künstlichen Intelligenz entscheidend, die die Entscheidungsprozesse der KI für Menschen nachvollziehbar macht. Dadurch soll auch verhindert werden, dass die KI aufgrund unzureichender Trainingsdaten bspw. marginalisierte Gruppen gezielt ins Visier nimmt.

Gesellschaftliche Debatte

Die Fragen, welche Rolle Roboter und Algorithmen in bewaffneten Konflikten spielen sollen, sind bei weitem noch nicht geklärt. Im Gegenteil rücken Themen wie Künstliche Intelligenz erst nach und nach ins öffentliche Bewusstsein. Einzelne technologische Durchbrüche wie die Entwicklung von ChatGPT können ein Schlaglicht werfen auf den dramatischen technologischen Wandel. Trotzdem verdecken sie auch immer einen Teil der zugrundeliegenden fachlichen Debatte. Daher müssen die gesellschaftlichen Folgen von Digitalisierung und Automatisierung viel stärker thematisiert und diskutiert werden. Damit Experten überhaupt sinnvolle Entscheidungen treffen können, braucht es einen breiten gesellschaftlichen Austausch und Konsensbildung über einzelne Fachgrenzen hinweg.

Text Hannes Vogel