El negoci del reconeixement facial que implica estats, grans empreses de seguretat i companyies tecnològiques no està regulat, i això atempta contra els drets humans. Aquesta va ser la conclusió a la qual va arribar el juny de 2019 David Kaye, relator especial de les Nacions Unides sobre la llibertat d’opinió i d’expressió, en un consell de drets humans de l’ONU. “Els sistemes de vigilància poden interferir en els drets humans, des del dret a la privacitat i la llibertat d’expressió fins als drets d’associació i reunió, les creences religioses, la no-discriminació i la participació pública”, afirmava Kaye, que va acabar recomanant la suspensió immediata del negoci de la vigilància amb dispositius “intel·ligents” fins que s’estableixin marcs legals adaptats als drets humans.
El consell va quedar en paper mullat i actualment el mercat dels sistemes de vigilància que empren el reconeixement facial, les bases de dades i l’analítica va a l’alça. Segons un informe elaborat l’agost passat pel think tank Carnegie Endowment for International Peace, almenys en 75 països del món hi ha sistemes de vigilància d’aquest tipus. L’Estat espanyol n’és un i les empreses més implicades en aquest territori són Huawei, IBM, Herta Security i SICE.
Ens fem una foto amb la càmera del telèfon mòbil, etiquetem els nostres contactes a les xarxes socials, utilitzem una aplicació que ens diu com serem de grans. Les dades s’emmagatzemen i més tard poden creuar-se amb la informació recopilada per les càmeres de videovigilància dels cossos policials o d’empreses privades per determinar a la perfecció qui som.
D’un projecte amb la CIA va néixer Amazon Rekognition, un sistema que ara s’utilitza amb finalitat de control social
En aquest sentit, les grans empreses tecnològiques són indispensables perquè el reconeixement facial sigui exhaustiu. Firmes com Amazon, Microsoft, Google, Facebook o Alibaba mantenen un intercanvi comercial i contractual amb operadors privats i governs, i els entreguen la seva tecnologia a canvi de quantitats astronòmiques de diners. A tall d’exemple, podem veure com Amazon va arribar a un acord milionari amb la CIA i l’Agència Nacional de Seguretat dels Estats Units per crear una gran base de dades anomenada Intelligence Community GovCloud entre 2014 i 2016. D’aquell projecte en va néixer Amazon Rekognition, un sistema d’intel·ligència artificial que avui dia s’utilitza amb finalitat de control social arreu del món.
Cisjordània com a camp de proves
Fins a quin punt són legals aquestes aliances? El cert és que tot depèn de la legislació en matèria de dades i privacitat de cada país. És per això que és interessant fixar-se en els territoris palestins ocupats de Cisjordània, ja que és un dels indrets del món on l’experimentació amb sistemes de reconeixement facial ha anat més lluny. L’octubre de 2019 la periodista de l’NBC Olivia Solon va publicar una investigació en la qual denunciava que Microsoft havia invertit 74 milions de dòlars en una empresa de ciberseguretat israeliana que vulnerava tant els drets humans com el codi ètic de la companyia estatunidenca. Es tractava d’AnyVision, una firma que es dedica al control de la població de Cisjordània i de Jerusalem Est amb sistemes de reconeixement facial sota el pretext de prevenir atacs terroristes.
El seu software Better Tomorrow és capaç de reconèixer algú en temps real i, també, de cercar una persona aprofitant el flux d’imatges en directe que proporciona el sistema de càmeres distribuït per tota Cisjordània. La investigació va revelar que AnyVision monitoritza la vida quotidiana de la població palestina sense el seu coneixement ni consentiment gràcies al software instal·lat en 115.000 càmeres i en els mòbils de la mateixa població.
L’empresa AnyVision monitoritza la vida quotidiana de la població palestina sense el seu consentiment
Better Tomorrow també funciona en els punts de control de l’exèrcit d’Israel a Cisjordània i, segons Solon, només s’utilitza amb la població palestina. Per la seva banda, l’Observatori de Drets Humans i Empreses a la Mediterrània (ODHE) explica en un informe referit a AnyVision que “per treballar a Israel i als assentaments il·legals de Cisjordània, la població palestina ha d’obtenir un permís de treball expedit per l’aparell de seguretat israeliana. Només es pot accedir a obtenir aquest permís de treball si es disposa d’un document identificatiu biomètric”. Com demostra aquest cas, sota el pretext d’utilitzar el reconeixement facial amb fins securitaris, s’acaba controlant tota la població. Val a dir que a Cisjordània la implantació d’empreses com AnyVision és generalitzada.
Les fronteres europees “intel·ligents”
El Reglament general de protecció de dades de la Unió Europea (RPGD) va entrar en vigor el 2016 i és molt clar en relació amb les limitacions del reconeixement facial. Segons el text, queda prohibit el tractament de dades biomètriques amb la finalitat d’identificar una persona o fer-ho amb dades relatives a la seva salut, vida sexual o orientació sexual. Així mateix, les imatges captades per càmeres de reconeixement facial no poden ser tractades si no hi ha consentiment i coneixement de la gravació. No deixa de ser simptomàtic que la majoria de sistemes de reconeixement facial europeus es trobin en els controls fronterers, allà on tenen menor afectació per a la població amb ciutadania europea i l’RGPD queda desdibuixat.
L’any 2008 la Unió Europea va decidir posar en marxa un projecte anomenat “Fronteres intel·ligents”, que consistia a agilitzar el pas entre països mitjançant la tecnologia. A més d’això, tenia com a objectiu controlar la població extracomunitària i prevenir atacs terroristes. Gemma Galdon, experta en ètica i tecnologia que va participar en el projecte, denuncia que la transformació “no va passar pel Parlament Europeu perquè es va considerar una esmena tècnica”.
Aquesta esmena tècnica té efectes reals en la vida de milers de persones. L’any passat, a l’Estat espanyol les empreses Gunnebo Iberia i Thales España van instal·lar un sistema de càmeres de reconeixement facial a les fronteres de Ceuta i Melilla. Segons explicaven les companyies a un diari local de Melilla, aquest sistema permet fer “llistes negres” d’aquelles persones que creuin del Marroc a l’Estat espanyol i no retornin al seu país d’origen en el termini que estipula la llei. La delegada del govern a Melilla celebrava el desembre passat que ja s’havia creat una llista de 1.200 persones de les quals es tenien dades personals. Això, presumiblement, toparia amb el reglament europeu de protecció de dades.
Rebel·lió contra les càmeres als Estats Units
En l’últim any, la preocupació per les derivades que pot tenir l’expansió de les tecnologies de reconeixement facial ha crescut als Estats Units. A diferència de la Unió Europea, amb una llei més garantista, allà l’ús del reconeixement facial per part de la policia i les administracions és recurrent i per això cada cop són més les ciutats que estan prohibint les càmeres de videovigilància que utilitzen intel·ligència artificial.
San Francisco, bressol de la revolució digital, el març de l’any passat, va prohibir-ne l’ús per part de la policia, que l’emprava per buscar sospitosos o per dictaminar si en determinades zones de la ciutat hi havia més possibilitat de produir-se un fet delictiu.
La decisió de prohibir va ser conseqüència de la preocupació de les autoritats de San Francisco per la manca de llibertat que aquesta tecnologia produïa i pel biaix racial i de gènere que les aplicacions de reconeixement facial com Amazon Rekognition tenen. Un estudi de l’Institut de Tecnologia de Massachusetts del gener de 2018 va demostrar que les eines de reconeixement facial identificaven de forma errònia un 35% de les dones no blanques. Aquestes dades posaven en seriós dubte les possibilitats d’aquesta tecnologia en l’àmbit policial, ja que una dona no blanca podia ser detinguda per un crim no comès.
Com si es tractés d’un efecte dominó, altres ciutats dels Estats Units com Oakland, Berkeley, Saomerville o Massachusetts també han prohibit per raons similars l’ús de la tecnologia de reconeixement facial per part de la policia i de les administracions locals.