El 2021, es va publicar en anglès un llibre titulat L’equip humà-màquina: com crear una sinergia entre la intel·ligència humana i artificial que revolucionarà el nostre món sota el pseudònim de Brigadier General Y.S. L’autor, un home que vam confirmar que és el comandant actual de la unitat d’elit d’intel·ligència israeliana 8200, defensa el disseny d’una màquina especial que pugui processar ràpidament quantitats massives de dades per generar milers d'”objectius” potencials per als atacs militars en plena guerra. Aquesta tecnologia –escrivia–, resoldria el que va descriure com un “coll d’ampolla humà tant per localitzar els nous objectius com per prendre decisions per aprovar els objectius”.
Resulta que una màquina com aquesta existeix realment en l’actualitat. Una nova investigació dels mitjans +972 Magazine i Local Call revela que l’exèrcit israelià ha desenvolupat un programa basat en intel·ligència artificial conegut com a Lavender, que donem a conèixer públicament per primera vegada. Segons sis oficials d’intel·ligència israelians, que han servit a l’exèrcit durant l’actual guerra a la Franja de Gaza i que han participat de primera mà en l’ús de la intel·ligència artificial (IA) per generar objectius per a l’assassinat, Lavender ha tingut un paper central en el bombardeig sense precedents de palestins, especialment durant les primeres etapes de la guerra. De fet, segons les fonts, la seva influència en les operacions de l’exèrcit va ser tal que els comandaments van tractar les decisions de la màquina d’IA “com si fos una decisió humana”.
Formalment, el sistema Lavender està dissenyat per marcar tots els presumptes agents de les ales militars de Hamàs i la Gihad Islàmica Palestina, inclosos els de baix rang, com a possibles objectius de bombardeig. Les fonts consultades detallen que, durant les primeres setmanes de guerra, l’exèrcit va confiar gairebé completament en Lavender, que va registrar fins a 37.000 palestins com a presumptes militants -i les seves cases- per a possibles atacs aeris.
Durant les primeres etapes de la guerra, l’exèrcit va donar una gran aprovació als oficials per adoptar les llistes de la mort de Lavender, sense cap requisit de comprovar a fons per què la màquina havia fet les seleccions
Durant les primeres etapes de la guerra, l’exèrcit va donar una gran aprovació als oficials per adoptar les llistes de la mort de Lavender, sense cap requisit de comprovar a fons per què la màquina havia fet les seleccions ni d’examinar les dades d’intel·ligència en brut en què es basaven. Una de les fonts afirma que el personal humà sovint només servia com a “segell de goma” per a les decisions de la màquina, i afegeix que, normalment, dediquen personalment només uns “20 segons” a cada objectiu abans d’autoritzar un bombardeig, només per assegurar-se que l’objectiu marcat és masculí. Això malgrat saber que el sistema comet el que es consideren “errors” en aproximadament el 10 % dels casos, i se sap que ocasionalment marca persones que només tenen una connexió fluixa amb grups militants, o no tenen cap connexió.
A més, l’exèrcit israelià ha atacat sistemàticament els individus objectiu mentre estaven a casa seva, normalment a la nit, mentre les seves famílies eren presents, més que durant l’activitat militar. Segons les fonts, això va ser perquè, des del punt de vista d’intel·ligència, era més fàcil localitzar els individus a les seves cases particulars. Sistemes automatitzats addicionals d’intel·ligència artificial, inclòs un anomenat “On és el pare?” també revelats en aquesta investigació per primera vegada, es van utilitzar específicament per rastrejar els individus objectiu i per dur a terme bombardejos quan havien entrat a les residències de la seva família.
El resultat, segons el testimoni de les fonts, és que milers de palestins —la majoria dones i nens o persones que no estaven implicades en els combats— van ser exterminats pels atacs aeris israelians, especialment durant les primeres setmanes de la guerra, a conseqüència de l’aplicació dels resultats del programa Lavender.
“No ens interessava matar agents [Hamàs] només quan estaven en un edifici militar o es dedicaven a una activitat militar”, assegura A., un oficial d’intel·ligència consultat. “Al contrari, les IDF (Forces de Defensa d’Israel) els van bombardejar a les cases sense dubtar-ho, com a primera opció. És molt més fàcil bombardejar la casa d’una família. El sistema està creat per buscar-los en aquestes situacions”.
Un altre programa anomenat The Gospel marca edificis i estructures des dels quals l’exèrcit afirma que els militants operen, Lavender marca les persones i les posa a una llista de morts
La màquina Lavender s’uneix a un altre sistema d’IA, “The Gospel”, sobre el qual es va revelar informació en una investigació prèvia de +972 Magazine i Local Call el novembre de 2023, així com a les publicacions de l’exèrcit israelià. Una diferència fonamental entre els dos sistemes està en la definició de l’objectiu: mentre que The Gospel marca edificis i estructures des dels quals l’exèrcit afirma que els militants operen, Lavender marca les persones i les posa a una llista de morts.
A més, segons les fonts, a l’hora d’atacar presumptes militants joves marcats per Lavender, l’exèrcit va preferir utilitzar només míssils no guiats, comunament coneguts com a bombes “mudes” (en contrast amb les bombes de precisió “intel·ligents”), que poden destruir edificis sencers sobre els seus ocupants i causen nombroses víctimes. “No volen malgastar bombes cares amb persones sense importància; és molt car per al país i hi ha escassetat [d’aquestes bombes]”, assegura C., un dels oficials d’intel·ligència. Una altra font confirma que s’ha autoritzat personalment el bombardeig de “centenars” de cases particulars de presumptes agents menors d’edat marcats per Lavender. Molts d’aquests atacs van provocar la mort de civils i de famílies senceres com a “danys col·laterals”.
En un moviment sense precedents, segons dues de les fonts, l’exèrcit també va decidir durant les primeres setmanes de la guerra que, per cada agent menor de Hamàs que Lavender va marcar, era permissible matar fins a 15 o 20 civils; en el passat, els militars no van autoritzar cap “dany col·lateral” durant els assassinats de militants de baix rang. Les fonts van afegir que, en el cas que l’objectiu fos un alt funcionari de Hamàs amb el rang de comandant de batalló o de brigada, l’exèrcit va autoritzar en diverses ocasions la mort de més de 100 civils en l’assassinat d’un sol comandant.
La investigació periodística s’organitza segons les sis etapes cronològiques de la producció d’objectius altament automatitzada de l’exèrcit israelià en les primeres setmanes de la guerra de Gaza
La investigació periodística (que podeu llegir completa en anglès en aquest enllaç) s’organitza segons les sis etapes cronològiques de la producció d’objectius altament automatitzada de l’exèrcit israelià en les primeres setmanes de la guerra de Gaza. En primer lloc, explica la mateixa màquina Lavender, que va marcar desenes de milers de palestins utilitzant IA. En segon lloc, revela el sistema “On és el pare?”, que rastreja aquests objectius i fa senyals a l’exèrcit quan entren a les cases familiars. En tercer lloc, descriu com es van triar bombes “mudes” per colpejar aquestes cases.
En quart lloc, expliquem com l’exèrcit ha estat més permissiu en el nombre de civils que podien morir durant el bombardeig d’un objectiu. En cinquè lloc, observem com el programari automatitzat calcula de manera incorrecta la quantitat de no combatents a cada llar. I en sisè, mostrem com en diverses ocasions, quan es colpeja una casa, generalment a la nit, l’objectiu individual de vegades no es troba al lloc de l’atac, perquè els oficials militars no verifiquen la informació en temps real.
Una investigació publicada originalment i completa a +972 Magazine