Sie kennen Lavendel, eine duftende in Blau-lila oder Lila-blau blühende Pflanze, die ihren Ursprung in der Provence hat und in zahlreichen heimischen Gärten angepflanzt wird. Schmetterlinge lieben sie ob des Duftes – ausser der Kleidermotte. Es gibt auch einen Film namens Lavender, in dem eine Frau ihr Gedächtnis verliert und nach und nach ihr altes Leben neu erkunden muss. Aber auch hier liegen sie falsch.
Lavender ist eine modifizierte Anwendung von Künstlicher Intelligenz. Man kann heute Stimmen „kopieren“ oder Bilder perfekt verändern, sodass selbst geübte Zuhörer und Betrachter auf das „Fake“ hereinfallen. Von Kriminellen werden solchen Anwendungen verwendet, um anderen meist Geldbeträge oder Wertgegenstände abzuerpressen. Lavender wird in Israel zum Identifizieren durch Gesichtserkennung von Hamas-Mitgliedern in Gaza verwendet. Je höher ein Hamasler in der Organisation steht, desto tiefer leben die Leute unter der Erde. Unter der Erde sind sie unsichtbar und somit nicht zu identifizieren.
Dagmar Henn schreibt dazu: „Die Geschichte von Lavender, wie sie der israelische Journalist Yuval Abraham erzählt, ist so banal wie gruselig. Die israelische Regierung hat entschieden, alle Angehörigen des militärischen Arms der Hamas zum Ziel zu erklären, und die Armee stellte fest, dass sie das technisch überforderte, weil es schlicht zu viele Daten seien. Da kam dann das Programm ins Spiel, das zuvor nur als Hilfsmittel eingesetzt wurde, weil es wesentlich mehr Daten in kürzerer Zeit verarbeiten konnte. Zwei Wochen lang wurde überprüft, ob die Auswahl stimmte, dann wurde die Verwendung freigegeben. “Von dem Moment an waren sie im Grunde aufgefordert, das als einen Befehl zu behandeln, wenn Lavender entschied, dass ein Individuum ein Hamas-Kämpfer sei, ohne Anforderung, unabhängig zu überprüfen, warum die Maschine diese Wahl getroffen hatte, oder die Daten zu untersuchen, auf denen sie beruhte.”
Im Regelfall werden die Ziele, sprich Hamas-Mitglieder, um fünf Uhr früh zu Hause bombardiert. Kollateralschäden, sprich andere Menschen, die dabei sterben, sind der militärischen Führung egal, Hauptsache man hat wieder einen von der Hamas eliminiert. Lavender verarbeitet die Daten von 2,3 Millionen Palästinensern – 37.000 Personen aus dieser Gruppe wurden zu Zielen erklärt und mit Punkten von 1 – 100 bewertet. Die Fragen bestimmen das Ergebnis der Identifikation: Häufige Wechsel des Handys, öfters vorgenommene Adressänderungen, Mitgliedschaft in einer Whatsapp-Gruppe, in der auch ein bekannter Kämpfer Mitglied ist. Abraham weiter: „Quellen sagten, dass die einzige vorgeschriebene Überprüfung durch einen Menschen, ehe die Häuser vermeintlicher “einfacher” Kämpfer bombardiert wurden, in einer einzigen Kontrolle bestand: sicherzustellen, dass das von der KI gewählte Ziel männlich und nicht weiblich war. Die Daten, die Lavender gewählt hatte, wurden dann mit Trackingprogrammen verknüpft, wie sie auch Eltern für die Handys ihrer Kinder nutzen, und schon gab es ein Ziel. Laut Abraham wurden selbst Minderjährige zu Zielen für Bombenangriffe. Die teureren, zielgenaueren Bomben soll sich die israelische Armee für höherrangige Hamas-Kämpfer aufgehoben haben, für die vermeintlichen Fußtruppen reichte eine “dumme” Bombe. Und allein die Tatsache, dass das Programm so viele “Ziele” lieferte, sorgte dafür, dass nicht allzu viele Gedanken auf eine einzelne Person, geschweige denn auf die Mitbewohner des Hauses verschwendet wurden. Es konnten auch zwanzig Kinder für einen einfachen Kämpfer sein”, zitierte Abraham eine seiner Quellen. Für einen Angriff auf einen höheren Kommandeur des militärischen Arms wurden sogar 300 zivile Opfer in Kauf genommen“.
NS-Verbrecher haben sich immer versucht damit Ihrer Verantwortung zu entledigen, dass sie sagten, sie hätten nur Befehlen Folge geleistet. Wie werden sich die Agitatoren der modernen Kriegsführungen einst in Den Haag herausreden können, sollten sie je vor Gericht gestellt werden? „Ich folgte den Befehlen Lavenders!“ – wir werden das nicht gelten lassen dürfen, meint
der Brandstetter