Thomas Nash: "Em sembla terrible que un robot decideixi si et mata o no"

Activista, cofundador de Stop Killer Robots
07/09/2016

El militarisme soscava el progrés de tota societat. Aquesta constatació mou Thomas Nash, nascut a Nova Zelanda fa 36 anys i avui resident a Londres, a combatre la follia armamentística que es produeix arreu del planeta. Després de dirigir la campanya global contra les bombes de dispersió, que va donar peu a la cimera que les prohibeix, ara, des de l’ONG Article 36, impulsa la iniciativa Stop Killer Robots per intentar aturar la fabricació d’armes que podran cometre atacs sobre els éssers humans de manera autònoma. “És la massacre mecànica automatitzada”, adverteix. Per a aquest politòleg, si es posen en marxa ginys que poden assassinar sense necessitat que cap persona els ho ordeni, es trencarà definitivament el contracte social entre l’individu i l’Estat, base de qualsevol sistema democràtic. Malgrat les veus que el titllen d’ingenu o idealista, Thomas Nash confia que Stop Killer Robots, que ja compta amb el suport de 17.000 persones del món científic, desvetlli les consciències i mobilitzi la població per avançar cap a un món més just i desmilitaritzat.

/ Article 26

 

Què et porta a investigar l’ús de robots amb finalitats militars?

Des d’adolescent he qüestionat el militarisme com a manera de resoldre els conflictes. Provoca una espiral que alimenta la violència, de la qual els robots assassins són l’expressió més extrema.

Quina capacitat d’autonomia tenen aquests ginys?

De moment, estan en fase d’elaboració. Però la finalitat és que –a diferència dels drons, en què la persona dóna l’ordre de disparar– seleccionin els objectius sense necessitat que algú premi el gallet. Se n’està estudiant l’operativitat i només falta saber si aquesta intel·ligència artificial s’adequarà al raonament humà que fixa la llei. Amb el ritme de desenvolupament actual, però, estaran sobre el terreny d’aquí deu anys.

Poden ser més perillosos que les armes convencionals?

Més que el grau de perillositat, la qüestió és si acceptem que unes màquines decideixin qui eliminen. Si ho admetem, estarem avantposant la conveniència als principis morals i permetrem que la violència i el militarisme estiguin fora del nostre control.

La intel·ligència artificial ja ha produït conseqüències inesperades?

Tenim l’exemple dels cotxes Tesla, que han trencat pilots automàtics. I també sabem els efectes catastròfics que provoquen els algoritmes quan interactuen entre si. Només cal fixar-se en les caigudes sobtades del mercat de valors causades per algoritmes que van embogir. Podria passar el mateix amb els sistemes d’armes autònomes... d’aquí la necessitat que, d’acord amb la llei i la moral i tenint en compte la seva potencial infiabilitat, ho evitem com sigui.

Fins ara, què més t’ha impactat d’aquests artefactes?

M’ha colpit la reducció de la persona a un codi binari en una pantalla d’ordinador, a partir del qual un artefacte determinarà si t’envia un míssil. Ningú no desitja morir, però em sembla terrible pensar que un robot pugui decidir si et mata o no.

Quins països han començat a dissenyar-ne?

Els principals són els EUA, Rússia, la Xina, el Regne Unit, França, Corea del Sud i Israel. Tots tenen programes relacionats amb la robòtica i l’autonomia sobre el camp de batalla. Israel ja té un radar que detecta avions no tripulats i la Xina i Rússia estan dissenyant sistemes altament sofisticats que permetran reconèixer perfils facials als quals atacar. Si els desenvolupen, ja podem imaginar a quines regions actuaran.

Aquest tipus d’armes, com els drons, canviaran el concepte de seguretat que tenim?

Formen part del procés cap a la violència a distància que va aflorar arran dels atacs de l’11 de setembre de 2001 a Nova York. Els governs s’han llançat a dissenyar sistemes per matar qualsevol persona a qualsevol lloc i en qualsevol moment. És molt preocupant perquè contravé els drets humans i els mitjans pacífics de resolució de conflictes.

Què plantegeu amb la campanya Stop Killer Robots?

Exigim un tractat internacional que prohibeixi les armes letals autònomes i que qualsevol sistema estigui sota control humà. Malauradament, la llei en vigor no afronta aquest problema.

Afirmes que cal “humanitzar els conflictes”. Què vols dir amb això?

Jo no vull humanitzar els conflictes, però preguntar-nos si és pertinent debatre com ens matem ens interroga sobre qui som. Per tant, si obliguem la gent a pensar i examinar el desenvolupament i l’ús de les armes, podem contribuir a augmentar el rebuig a la violència.

Estem davant d’un conflicte ètic, doncs?

És més profund que això. Té a veure amb els perjudicis que causen el patriarcat, el militarisme i el capitalisme entre la població, atès que són responsables de la proliferació d’aquestes armes. Si veritablement volem viure en un món més just i pacífic, no tenim altre remei que desafiar aquestes ideologies dins les nostres xarxes i comunitats.

Cap on orientaràs l’activisme els propers anys?

Lluitaré per la prohibició dels robots assassins, contra les armes nuclears i pel compromís dels estats a prevenir els bombardejos de pobles i ciutats. Són les accions que causen la majoria de víctimes civils i que, a llarg termini, provoquen efectes greus a totes les societats.

 

Mostra'l en portada

Noticies relacionades: