Periodisme cooperatiu per la transformació social
directa.cat
SUBSCRIU-T'HI FES UNA DONACIÓ

Un fons d'inversió nord-americà assaja un sistema d'IA per controlar la població presa a Catalunya

L’empresa adjudicatària per aplicar la intel·ligència artificial a la presó Mas d’Enric és Inetum, propietat de Bain Capital, que inverteix en indústria armamentística i ha donat suport a Israel

La presó Mas d'Enric és la més gran de les comarques de Tarragona | Arxiu

A la presó de Mas d’Enric, al Tarragonès, s’està desenvolupant una prova pilot d’intel·ligència artificial (IA) per predir i prevenir incidents de seguretat. L’adjudicatària és l’empresa Inetum Cataluña SA, el cost són 200.000 euros i el contracte en la seva primera clàusula estableix “que es pugui desenvolupar, posteriorment, als altres centres penitenciaris”.

Des del Departament de Justícia de la Generalitat de Catalunya insisteixen a referir-s’hi com a “prova de concepte”, una implementació d’un mètode, que pot ser incompleta, per verificar que és susceptible de ser explotada d’una manera útil. I asseguren que encara és prematur fer-ne una valoració. Segons la Plataforma de Serveis de Contractació Pública, el contracte es va formalitzar el 18 de maig i el termini d’execució finalitzarà el 18 d’agost de 2024.

D’acord amb el calendari de tasques, en aquests moments ja s’estaria duent a terme la fase d’entrenament de la intel·ligència artificial per als casos. L’assaig pretén implementar un sistema per a la classificació d’interns “amb perfils de violència”, així com un sistema automatitzat també per a la predicció de presos i preses “amb perfil de risc d’introducció de substàncies o objectes prohibits”. Alhora, Inetum s’ha compromès a desplegar un sistema d’anàlisi de vídeo de reconeixement facial i gestual per detectar “una conducta il·lícita” en una comunicació personal —incloses les comunicacions íntimes— o per prevenir el “risc de fugida”.

Inetum s’ha compromès a desplegar un sistema d’anàlisi de vídeo de reconeixement facial i gestual per detectar “una conducta il·lícita” en una comunicació personal o per prevenir el “risc de fugida”

El mes de setembre, una dotzena d’entitats van impulsar un comunicat on assenyalen l’ús d’intel·ligència artificial com una de les polítiques “més regressives de la penologia i la criminologia contemporània”. Iñaki Rivera de l’Observatori del Sistema Penal i els Drets Humans (OSPDH), una de les impulsores del text, denuncia que es continua fent política penitenciària “sense l’opinió d’organitzacions de drets humans, ni del Parlament, ni del Síndic de Greuges”, i el fet que s’executin aquesta mena de despeses “quan hi ha tantes necessitats per atendre a les presons”.

Així mateix, Judith Membrives de l’Àrea de Digitalització de Lafede.cat —xarxa adherida al comunicat— recalca que aquesta mena de tecnologies “vulneren per definició drets bàsics com el de privacitat, llibertat d’expressió, l’honor o la dignitat” i entén l’assaig de la IA a les presons com una contribució més a “la retallada i el retrocés de drets de la població ja en estat de vulnerabilitat”. A més, Membrives subratlla els biaixos “masclistes, racistes, capacitistes i occidentalistes” que tenen els algoritmes per al reconeixement facial.


Un gran fons armat

Des del 2022, la tecnològica Inetum està en mans d’una de les grans gestores de fons d’inversió del món, la nord-americana Bain Capital, que va néixer el 1984 de la mà del polític republicà Mitt Romney i que en l’actualitat inverteix en tota classe d’actius; des d’immobiliari, passant per l’alimentació, la tecnologia, la sanitat o la indústria armamentística.

Des de la seva fundació, la firma de capital privat ha realitzat inversions en més de 1.100 empreses, una de les quals és la basca ITP Aero, que fabrica motors per a aeronaus militars de les Forces Armades Espanyoles (FFAA). El 2022 la va adquirir a Rolls Royce per 1.700 milions d’euros i l’estiu passat Indra li va comprar un 9,5% de les accions.

La firma de capital privat ha realitzat inversions en més de 1.100 empreses, una de les quals és la basca ITP Aero, que fabrica motors per a aeronaus militars, de les Forces Armades Espanyoles (FFAA)

Un dels darrers contractes d’Inetum amb el Ministeri de Defensa espanyol és d’aquest mes de desembre i està destinat a millorar els equips d’obtenció d’intel·ligència de l’Armada per 20 milions d’euros. Amb àmplia experiència en guerra electrònica i intel·ligència, la companyia treballa des de fa anys amb les Forces Armades espanyoles.

El passat mes d’octubre, Bain Capital va ser una de les 500 empreses de capital de risc que van firmar una declaració pública de suport a Israel. El text condemnava els “actes bàrbars de terrorisme” i reconeixia “el dret d’Israel a defensar-se”, però no pronunciava cap paraula sobre els bombardejos contra la Franja de Gaza. A més, el fons va anunciar la donació d’un milió de dòlars per a ajuda humanitària a Magen David Adorm, el servei israelià d’emergències, assistència mèdica i ambulàncies. En l’actualitat, almenys una de les seves divisions inverteix en programari d’infraestructura a Israel.

 

Incidència en sentències i llibertat condicional al Regne Unit

Anglaterra i Gal·les porten avantatge a Catalunya en la implementació de la intel·ligència artificial en el sistema penitenciari. OASys (Sistema d’avaluació de delinqüents, per les seves sigles en anglès) intenta predir la probabilitat que una persona reincideixi i es va introduir el 2002 com a sistema d’avaluació dels riscos per al personal penitenciari i el 2013 amb una versió electrònica. Alhora, existeix l’OGRS (L’Escala de Reincidència del Grup de Delinqüènts, per les seves sigles en anglès), una altra eina que utilitza dades sobre l’edat en el moment de la sentència, el sexe, el nombre de sancions penals prèvies, etc. Segons l’organització Fair Trials per a sistemes de justícia justos i igualitaris, fins al 2015 es van recopilar gairebé set milions d’avaluacions de presó i llibertat condicional per a més d’un milió de persones.

Per Griff Ferris, de Fair Trials, l’aplicació d’aquestes tecnologies vulnera el dret a un judici just i a la presumpció d’innocència

L’avaluació d’OASys i les prediccions d’altres eines com OGRS s’utilitzen per part del servei de llibertat condicional d’Anglaterra i Gal·les en la fase prèvia a la sentència. Per Griff Ferris, de Fair Trials, l’aplicació d’aquestes tecnologies vulnera el dret a un judici just i a la presumpció d’innocència: “dona lloc a resultats i càstigs greus en matèria de justícia penal i civil, inclosa la privació de llibertat, abans que s’hagi dut a terme el presumpte acte per al qual estan sent perfilats”.

Les dades utilitzades per crear, entrenar i operar sistema d’IA, explica Ferris, “sovint reflecteixen una discriminació històrica, sistèmica, institucional i social que dona com a resultat que les persones, comunitats i àrees geogràfiques racialitzades estiguin excessivament vigilades, interrogades, detingudes i desproporcionadament empresonades a tota Europa”. De fet, els advocats han informat a Fair Trials que les avaluacions d’OASys solen estar esbiaixades i, per exemple, els membres de la comunitat nòmada sovint són classificats com de major risc que altres persones. “Aquesta és una forma fonamentalment injusta de prendre decisions legals penals”, conclou Ferris.

Donacions

Fes una donació

FES UN DONATIU
Error, no Advert ID set! Check your syntax!