KI ist keine Zukunftsmusik mehr – sie ist bereits Realität in modernen Kriegen. In diesem Artikel erfährst du, wie Algorithmen in der Ukraine und in Gaza tatsächlich eingesetzt werden: von automatisierter Zielerfassung über Gesichtserkennung bis hin zu autonomen Drohnen. Keine Spekulation, sondern dokumentierte Fakten mit Quellenangaben.

Kriegsführung war schon immer technologisch getrieben. Aber was aktuell in der Ukraine und in Gaza passiert, markiert einen qualitativen Sprung: Algorithmen entscheiden mit, wer zum Ziel wird, wo Truppen eingesetzt werden und welche Gebäude zerstört werden. Der Mensch ist oft nur noch formal im Loop – und manchmal nicht einmal das.

Dieser Artikel zeigt dir die konkreten Einsatzfelder, die dokumentiert sind. Keine Science-Fiction, sondern operative Realität.

Mehr zu KI-Entwicklungen und deren Auswirkungen findest du regelmäßig auf meinem YouTube-Kanal und hier im KI-News-Bereich.

Einsatzfeld 1: Automatisierte Zielerfassung – Lavender und The Gospel

Das wohl bekannteste Beispiel für KI-gestützte Kriegsführung kommt aus Gaza. Dort nutzt die israelische Armee zwei Systeme zur Zielidentifikation: Lavender und The Gospel (auf Hebräisch: Habsora).

KI-gestütztes Zielerfassungssystem mit digitaler Karte und Markierungen in militärischem Kommandozentrum

Lavender ist ein KI-System, das Personen identifiziert, die als potenzielle Hamas- oder Islamic-Jihad-Mitglieder eingestuft werden. Das System analysiert Kommunikationsdaten, Bewegungsprofile, Social-Media-Aktivitäten und andere digitale Spuren. Laut Berichten des israelischen Magazins +972 und des britischen Guardian wurden in den ersten Wochen des Gaza-Kriegs Tausende von Personen durch Lavender markiert.

The Gospel (Habsora) identifiziert dagegen Gebäude und Infrastruktur. Es wertet Satellitenbilder, Telefondaten und weitere Informationen aus, um potenzielle militärische Ziele zu lokalisieren.

Das Entscheidende: Die menschliche Prüfung dieser Vorschläge ist minimal. Mehrere anonyme Quellen aus der israelischen Armee gaben an, dass Soldaten durchschnittlich nur 20 Sekunden für die Überprüfung eines Lavender-Ziels aufwenden – oft nur, um zu bestätigen, dass es sich um eine männliche Person handelt. Eine echte inhaltliche Prüfung findet kaum statt.

Das System hat dabei eine hohe Fehlerquote akzeptiert. In internen Diskussionen wurde laut +972 eine Fehlerquote von 10 Prozent als tolerierbar eingestuft – das bedeutet, dass bei jedem zehnten als "legitim" markierten Ziel die Zuordnung falsch sein kann.

Quellen:

  • +972 Magazine: "Lavender: The AI machine directing Israel's bombing spree in Gaza"
  • The Guardian: "The Gospel: How Israel uses AI to select bombing targets in Gaza"

Einsatzfeld 2: Datenanalyse und Strategieplanung – Palantir in der Ukraine

Während in Gaza KI direkt zur Zielauswahl eingesetzt wird, spielt sie in der Ukraine eine strategischere Rolle. Hier kommt Palantir ins Spiel – ein US-amerikanisches Datenanalyse-Unternehmen, das Software für militärische Anwendungen bereitstellt.

Palantir analysiert massive Datenmengen: Satellitenbilder, Drohnenaufnahmen, Social-Media-Posts, Sensordaten von der Front und nachrichtendienstliche Informationen. Die KI sucht nach Mustern – etwa ungewöhnlichen Truppenbewegungen, Nachschublinien oder Kommunikationsanomalien.

Das Ziel: Predictive Intelligence. Das System soll vorhersagen, wo russische Truppen sich als Nächstes bewegen, wo Angriffe wahrscheinlich sind und welche Ziele prioritär geschützt werden müssen.

Palantir arbeitet dabei eng mit der ukrainischen Regierung zusammen. CEO Alex Karp hat mehrfach betont, dass die Technologie des Unternehmens "demokratische Werte" verteidigen soll. Die Software wird kostenfrei oder stark vergünstigt zur Verfügung gestellt.

Die Effektivität ist schwer zu bewerten, da Details zu konkreten Einsätzen klassifiziert sind. Klar ist: Datenanalyse durch KI ist ein fester Bestandteil der ukrainischen Verteidigungsstrategie.

Quellen:

  • Der Spiegel: "Palantir und der Krieg in der Ukraine"
  • NZZ: "Wie Datenanalyse-Firmen den Krieg in der Ukraine unterstützen"

Einsatzfeld 3: Autonome Drohnen – Saker Scout und First-Person-View-Kamikaze-Drohnen

Der Krieg in der Ukraine wird oft als erster großer Drohnenkrieg bezeichnet. Aber es geht nicht nur um ferngesteuerte Fluggeräte – zunehmend kommen Drohnen mit KI-gestützter Autonomie zum Einsatz.

Autonome KI-Drohne mit Sensoren im Einsatz über Kriegsgebiet in der Ukraine

Ein Beispiel ist die Saker Scout, eine in Australien entwickelte Drohne, die von der ukrainischen Armee eingesetzt wird. Sie nutzt KI-basierte Objekterkennung, um Ziele zu identifizieren. Im Endanflug kann die Drohne autonom steuern – auch wenn die Funkverbindung abbricht oder gestört wird.

Das ist entscheidend, weil elektronische Kriegsführung (Jamming) mittlerweile Standard ist. Russische und ukrainische Streitkräfte stören systematisch GPS-Signale und Funkverbindungen. Eine Drohne, die komplett ferngesteuert ist, wird dadurch nutzlos. Eine Drohne mit autonomer Zielverfolgung bleibt operativ.

Auch sogenannte FPV-Kamikaze-Drohnen (First-Person-View) werden zunehmend mit KI-Features ausgestattet. Diese kleinen, schnellen Drohnen fliegen direkt ins Ziel und explodieren beim Aufprall. Neuere Modelle erkennen automatisch Panzer, Fahrzeuge oder Personen und justieren den Kurs eigenständig.

Die Entwicklung dieser Systeme läuft extrem schnell ab. Was vor sechs Monaten noch experimentell war, ist heute Serienproduktion.

Quellen:

  • Netzpolitik.org: "Autonome Waffen in der Ukraine"
  • The Guardian: "AI-powered drones in Ukraine war"

Einsatzfeld 4: Gesichtserkennung – Clearview AI zur Identifikation

Ein weiteres, weniger offensichtliches Einsatzfeld ist Gesichtserkennung. Das US-Unternehmen Clearview AI hat der Ukraine Zugang zu seiner Datenbank mit über 10 Milliarden Gesichtern gegeben – gesammelt aus Social Media, öffentlichen Webseiten und anderen Quellen.

Die ukrainische Regierung nutzt die Technologie für verschiedene Zwecke:

  • Identifikation gefallener Soldaten (ukrainische und russische)
  • Überprüfung von Kriegsgefangenen
  • Aufspüren russischer Agenten an Checkpoints
  • Identifikation von Zivilisten in umkämpften Gebieten

Das System funktioniert über Smartphone-Apps: Ein Foto wird hochgeladen, die KI durchsucht die Datenbank und liefert innerhalb von Sekunden potenzielle Treffer.

Clearview AI ist hochumstritten. In mehreren europäischen Ländern wurde die Technologie verboten, weil sie gegen Datenschutzgesetze verstößt. Im Kriegskontext gelten andere Regeln – oder gar keine.

Quellen:

  • The New York Times: "Ukraine uses Clearview AI facial recognition"
  • Der Spiegel: "Gesichtserkennung im Ukraine-Krieg"

Das ethische Problem: Automation Bias und fehlende Verantwortung

Alle diese Systeme haben ein gemeinsames Problem: Automation Bias. Menschen vertrauen Algorithmen oft blind – besonders unter Zeitdruck, Stress oder wenn die Datenlage komplex ist.

Digitalisiertes Gesicht symbolisiert Automation Bias bei KI-gestützten Entscheidungen im Krieg

Ein Soldat, der in 20 Sekunden ein Lavender-Ziel überprüfen soll, wird in den allermeisten Fällen einfach "bestätigen" drücken. Eine Offizierin, die ein Palantir-Dashboard mit Hunderten von Datenpunkten sieht, wird der Algorithmus-Empfehlung vertrauen. Ein Drohnenpilot, der sieht, dass die KI ein Ziel erkannt hat, wird den Abschuss freigeben.

Die Verantwortung verschwimmt. Wer ist schuld, wenn ein unschuldiger Zivilist getötet wird? Der Soldat, der bestätigt hat? Das System, das ihn vorgeschlagen hat? Die Entwickler der KI? Die Befehlskette?

Bisherige Kriegsrecht und Völkerrecht sind auf solche Szenarien nicht vorbereitet. Es gibt keine klaren Regeln, wer haftet, wenn eine KI einen Fehler macht.

Gleichzeitig sinkt die Hemmschwelle für militärische Aktionen. Wenn die KI sagt, dass ein Angriff "vertretbar" ist, fühlt sich die Entscheidung weniger wie eine menschliche Tötung an – sie wird zur Umsetzung einer technischen Empfehlung.

Fazit: Algorithmen sind Realität, keine Dystopie

KI in Kriegsgebieten ist keine Zukunftsvision mehr. Sie wird eingesetzt – in Gaza, in der Ukraine, wahrscheinlich auch in anderen Konflikten, über die weniger berichtet wird.

Die Systeme funktionieren. Sie sind effizient. Und genau das macht sie gefährlich.

Es geht nicht darum, Technologie zu verteufeln. Aber es braucht dringend internationale Regeln, Transparenz und Mechanismen zur Rechenschaftspflicht. Sonst wird der nächste Krieg noch algorithmischer – und noch weniger kontrollierbar.


Übrigens: Wenn du selbst mit KI arbeitest – etwa für Content, Social Media oder Blogging – dann schau dir Marblism an. Mit dem Code „Nerdoase" bekommst du 25 % Rabatt. KI-Agenten nehmen dir repetitive Aufgaben ab und machen das Erstellen von Inhalten zum absoluten Gamechanger. Mehr dazu auch auf meinem YouTube-Kanal.


Quellen

  • +972 Magazine: "Lavender: The AI machine directing Israel's bombing spree in Gaza" (2024)
  • The Guardian: "The Gospel: How Israel uses AI to select bombing targets in Gaza" (2024)
  • Der Spiegel: "Palantir und der Krieg in der Ukraine" (2023)
  • NZZ: "Wie Datenanalyse-Firmen den Krieg in der Ukraine unterstützen" (2023)
  • Netzpolitik.org: "Autonome Waffen in der Ukraine" (2024)
  • The Guardian: "AI-powered drones in Ukraine war" (2024)
  • The New York Times: "Ukraine uses Clearview AI facial recognition" (2022)
  • Der Spiegel: "Gesichtserkennung im Ukraine-Krieg" (2023)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert