Israels Einsatz von KI bei der Bombardierung des Gazastreifens wirft ethische Fragen auf

April 4, 2024

In einer aufschlussreichen Untersuchung des Magazins +972 und von Local Call sind Behauptungen aufgetaucht, dass das israelische Militär künstliche Intelligenz (KI) einsetzt, um bei der Identifizierung von Bombenzielen in Gaza zu helfen. Unter Berufung auf Aussagen von sechs israelischen Geheimdienstmitarbeitern, die direkt in das besagte Programm involviert waren, enthüllt der Bericht die operativen Feinheiten eines KI-basierten Tools mit dem Namen „Lavender“, das angeblich eine Fehlerquote von 10 % aufweist. Diese Beamten, deren Anonymität gewahrt bleibt, äußern Bedenken über die scheinbar oberflächliche menschliche Überprüfung der von der KI vorgeschlagenen Ziele und bezeichnen sie als bestenfalls oberflächlich“.

Die israelischen Verteidigungskräfte (IDF) haben den Bericht des Magazins weder bestätigt noch dementiert, dass KI zum Aufspüren von Terrorverdächtigen eingesetzt wird. Stattdessen betonten die IDF die Rolle von „Informationssystemen“ als analytische Hilfsmittel bei der Identifizierung von Zielen und unterstrichen die Bemühungen, „den Schaden für die Zivilbevölkerung so weit wie möglich zu reduzieren“, soweit dies unter den operativen Zwängen möglich ist. Trotz der Zusicherung der IDF, die Ziele unter Einhaltung des internationalen Rechts gründlich zu prüfen, behauptet ein in dem Bericht zitierter Beamter, dass die menschliche Intervention oft nur als „Stempel“ für maschinell generierte Entscheidungen dient, wobei nur etwa 20 Sekunden für die Prüfung jedes Ziels aufgewendet werden.

Diese Untersuchung findet vor dem Hintergrund der zunehmenden internationalen Kritik an den israelischen Militäroperationen im Gazastreifen statt, vor allem nachdem bei Luftangriffen mehrere ausländische Mitarbeiter von Hilfsorganisationen ums Leben gekommen sind. Nach Angaben des Gesundheitsministeriums hat die anhaltende Belagerung des Gazastreifens auf tragische Weise über 32.916 Menschenleben gefordert und die ohnehin schon schlimme humanitäre Krise in der Region weiter verschärft.

Yuval Abraham, der Autor der Untersuchung, hatte zuvor mit CNN über die starke Abhängigkeit der IDF von der KI bei der Zielgenerierung gesprochen, was auf eine minimale menschliche Aufsicht bei diesen Operationen hindeutet. In der Erklärung der IDF wird klargestellt, dass die IDF eine Datenbank nutzen, um nachrichtendienstliche Quellen abzugleichen und so aktuelle Informationen über potenzielle Militärangehörige zu generieren, wobei die menschlichen Offiziere die Aufgabe haben, die Einhaltung des Völkerrechts und der IDF-Richtlinien sicherzustellen.

Der Bericht hebt auch ein beunruhigendes Muster nächtlicher Angriffe auf Wohnhäuser hervor, bei denen Tausende von Menschen, vor allem Frauen, Kinder und Nichtkombattanten, getötet wurden, was auf die Entscheidungen des AI-Programms zurückzuführen ist. Darüber hinaus wird die Vorliebe der IDF für den Einsatz von ungelenkten Raketen oder „Blindgängern“ bei bestimmten Angriffen erörtert, die aufgrund ihrer Ungenauigkeit ein erhöhtes Risiko für die Zivilbevölkerung in dicht besiedelten Gebieten wie Gaza darstellen.

Zur Verteidigung ihrer Taktik beharrt die IDF auf der Notwendigkeit des Einsatzes schwerer Munition gegen die Hamas und verweist auf den tragischen Tribut von mehr als 1.200 israelischen Todesopfern und zahlreichen Geiselnahmen durch Hamas-Kämpfer am 7. Oktober, die den aktuellen Konflikt ausgelöst haben. Die IDF behauptet, dass ihre Einsatzstrategien darauf abzielen, zivile und kollaterale Schäden zu minimieren – eine Behauptung, die in krassem Gegensatz zu der in der Untersuchung dargestellten düsteren Realität steht.

Während sich die internationale Gemeinschaft mit den ethischen Implikationen des Einsatzes von KI in der Kriegsführung auseinandersetzt, beleuchtet diese Untersuchung das komplexe Zusammenspiel zwischen technischem Fortschritt und menschlichem Urteilsvermögen in Konfliktgebieten. Die Enthüllungen erfordern eine kritische Prüfung der Sicherheitsvorkehrungen und ethischen Standards für den militärischen Einsatz von künstlicher Intelligenz und drängen auf eine Neubewertung der derzeitigen Praktiken, um sie besser mit den humanitären Grundsätzen und dem Völkerrecht in Einklang zu bringen.

Latest from Welt

gemischte-stimmung-an-asiens-börsen

Gemischte Stimmung an Asiens Börsen

Wahlen und Tech-Giganten im Fokus Die asiatischen Börsen starten in die Woche mit einer angespannten Stimmung. Händler berichten von engen Handelsspannen, beeinflusst durch die
österreich-coca-cola-startet-rückrufaktion

Coca Cola: Großrückruf in Österreich

Coca-Cola nimmt 26 Millionen Flaschen aus dem Verkehr Coca-Cola sieht sich in Österreich gezwungen, einen beispiellosen Rückruf von 26 Millionen Limonadenflaschen durchzuführen. Gastronomiebetriebe, Händler

withemes on instagram

[instagram-feed feed=1]