Periodisme cooperatiu per la transformació social
directa.cat
SUBSCRIU-T'HI FES UNA DONACIÓ

Vicent Costa, filòsof i matemàtic

“La intel·ligència artificial respon a una raó instrumental i a una lògica capitalista”

| Victor Serri

Possiblement és la combinació de la seva formació matemàtica amb la filosòfica el que fa que Vicent Costa (Albuixec, 1989) sigui capaç de guiar-nos amb claredat pel laberint de la intel·ligència artificial (IA). De fet, fa poc, el llibre que ha escrit amb Enric Senabre, Intel·ligència artificial. Com els algorismes condicionen les nostres vides (Sembra Llibres, 2021), ha estat guardonat amb el premi ACIA 2022 al Millor Treball de Difusió en IA. Científic titular del Consell Superior d’Investigacions Científiques (IIIA-CSIC), Costa ha centrat la seva recerca en l’estudi de lògiques per a la intel·ligència artificial, en el disseny de models explicatius i en les qüestions socials i ètiques. Aprofundim en la seva especialitat ara que la irrupció del bot de conversa ChatGPT, especialment a les aules, obre el debat sobre si el seu ús pot representar una ajuda o una amenaça per a l’activitat humana.


Com definiries la intel·ligència humana?

Com la capacitat de poder planificar tasques amb objectius particulars, d’esquivar imprevistos i obstacles, d’aprendre d’una manera flexible, d’adaptar-se al context i tenir certs coneixements del que anomenem sentit comú.


I l’artificial?

L’entenc com a disciplina i és la ciència i l’enginyeria que es dediquen al disseny de màquines físiques i virtuals que porten a terme tasques que els éssers humans concebem com a intel·ligents i tasques que impliquen facultats psicològiques, com ara l’equilibri o la percepció visual. L’ús del terme intel·ligència no està exempt de polèmica i el seu abast s’exagera, perquè les facultats psicològiques tenen poc a veure amb la intel·ligència. No diríem mai que una persona cega no és intel·ligent pel fet de no ser capaç de percebre un arbre. Per ara, tots els progressos s’han produït en la intel·ligència artificial (IA) anomenada dèbil, que només porta a terme activitats concretes. La IA forta seria aquella amb una intel·ligència general, semblant a la dels éssers humans.


Però la intel·ligència artificial, a diferència de la humana, podrà actuar algun cop amb consciència o empatia?

Un sistema de IA podrà simular empatia i consciència, però no en tindrà mai. Per tant, des de la filosofia clàssica, podem dir que no té responsabilitat moral, perquè no compleix els requisits bàsics, i li manca una ètica, perquè no s’ha desenvolupat en el marc d’una societat. La intel·ligència humana no és només la raó instrumental, quantitativa, sinó que conté una part qualitativa que té a veure amb el context, les vivències i l’empatia. Hi ha persones expertes que insisteixen molt en el fet que la IA no segueix uns processos interns similars als dels humans –no raona igual de bé, no té una semàntica ni un coneixement del món exterior…–, però el problema és que les usuàries a vegades els ho atribuïm.


La nostra idea d’intel·ligència artificial està influïda per la ciència-ficció? En quin punt ens trobem pel que fa al desenvolupament?

“Cal combatre la dicotomia entre entusiasme ingenu i catastrofisme: opera com una cortina de fum i ens fa perdre el temps per als debats importants”

És molt important entendre que una ciència sempre manté una relació constitutiva amb la societat en què es desenvolupa. L’hem d’entendre com una activitat humana i, per tant, està sotmesa als interessos i a les relacions de poder pròpies d’un període històric determinat. I, fins i tot, a les aspiracions individuals de les persones que la desenvolupen. En aquest sentit, també l’hem d’entendre com una activitat que s’emmarca dins d’una societat on la ciència-ficció té un pes molt important i va teixint un imaginari que no només comparteixen les persones no expertes en intel·ligència artificial, sinó també les mateixes desenvolupadores o programadores. Estem molt lluny del que mostra el cinema. Ens trobem en una dicotomia molt reduccionista: l’entusiasme ingenu que defensa que els nostres mals acabaran amb el desenvolupament científic i tècnic de la IA o aquella perspectiva catastrofista, fins i tot apocalíptica, d’un futur obscur dominat per una IA forta. Cal combatre aquesta dicotomia que opera com una cortina de fum: ens fa perdre temps per als debats rellevants. Els sistemes de IA actuals són dèbils i són els que realment tenen un impacte en el nostre dia a dia. Mentre perdem el temps amb les opinions polaritzades, tenim un sistema que no posa per davant les persones.


En quins àmbits s’està aplicant la intel·ligència artificial?

Gairebé en tots els àmbits possibles de la vida: és un algorisme el que decideix si el banc ens concedeix la hipoteca, hi ha països on les ajudes socials també les decideix un algorisme. En l’àmbit sanitari hi ha molts programes que complementen el diagnòstic mèdic, en l’educació ja s’apliquen molts sistemes de IA…


Parlem del disseny de l’algorisme. Aquesta fase carrega tots els prejudicis, estereotips i discriminacions que impregnen la societat?

El disseny està esbiaixat no només per qui el desenvolupa, qui escriu el codi, sinó pels interessos de les persones que manen i que decideixen quin tipus de projecte es farà, amb quins objectius i on s’aplicarà. Amb la IA la presa de decisions no és objectiva, tot i que es ven com a tal. No és que estiga malament per se utilitzar un algorisme per complementar una decisió, el problema és presentar-ho com quelcom objectiu. A més, no pots predir els usos que en farem i les relacions que hi establirem.

“La intel·ligència artificial respon a una raó instrumental i a una lògica capitalista”

 

Per què es volen presentar com a sistemes neutrals, desproveïts d’ideologia?

La dimensió econòmica necessita vendre els sistemes com a neutres. Si t’he de vendre un producte, t’hauré de dir que és objectiu i eficaç. A més, hi ha gent, fins i tot qui coneix millor la IA, que encara defensa el cientisme, és a dir, que les decisions basades en números, en estadística, en matemàtiques, tenen un component més objectiu. Però també és molt important recalcar que des de la política s’utilitzen els avenços tecnològics per a justificar les accions en l’àmbit social. Poden dir: “Hem deixat aquesta persona sense una ajuda perquè un sistema de IA així ho ha decidit”. Però el dia que un sistema li digui a una política que ha de repartir millor els béns no li farà ni cas.


Qui són els principals ideòlegs del desenvolupament de la IA en l’actualitat?

La major part de la recerca que es fa acaba llançant-se al mercat i té unes implicacions evidents: la manera en què es venen certs productes. A més, tenim un problema perquè la major part del finançament que rebem les institucions públiques prové d’institucions privades. Des de l’àmbit públic ens fem la pregunta de per què fer un disseny i si realment cal fer-lo, però, en canvi, una empresa privada es dirà com fer-ho i prou, la lògica capitalista guiarà la recerca. Els ideòlegs actuals són grans empreses tecnològiques, amb fronteres difuses, com Google, Microsoft, Amazon o Facebook i amb uns interessos clars: fer-se més rics. La recerca principal en IA la desenvolupa OpenAI, que forma part de Microsoft. Jo faig un tipus de IA que queda molt lluny d’aquests grans projectes basats en dades que busquen dissenyar un producte final amb molt impacte i que acaben marcant el camí de tota la recerca, la pública i la privada. Al remat, la sensació és que hi ha molta gent treballant en AI, però poca la controla.


Quins creus que són els àmbits d’aplicació de la IA que impliquen més riscos?

Alguns són evidents, com el militar, on la distància, la impersonalització i l’automatització són molt rellevants i fan desaparèixer el component humà. Tot i que a hores d’ara sembla que la supervisió humana es manté en aquest tipus d’aplicacions, cal insistir que una pèrdua d’aquesta seria molt perillosa. Ara bé, per la urgència i complexitat dels reptes que planteja, cal destacar l’aplicació de la intel·ligència artificial a l’ensenyament. Hi ha un repte ètic claríssim: quines tasques hauria de tenir un robot educatiu o un sistema d’intel·ligència artificial educatiu? N’hi ha de tres tipus: cognitives, socials i emocionals. Tot i que, generalment, s’ha argumentat que aquestes tecnologies haurien de centrar-se sobretot en les cognitives (sense oblidar els riscos que implicaria), existeixen treballs de recerca que recullen resultats de l’ús de sistemes d’aquesta mena per treballar habilitats socials, això és, qüestions com normes a l’aula, comportament i formes de relacionar-se. Altrament, si bé eines digitals –com el paquet d’eines educatives Google Workspace for Education Fundamentals– es presenten a priori com una ajuda a la gestió docent, s’integren en els recursos de l’alumnat i plantegen qüestions preocupants relatives a la privadesa del conjunt d’alumnes. No obstant tot això, i malgrat la preocupació i l’oposició recents per part d’alguns grups de pares i mares, en general, la incorporació d’aquests sistemes no ha estat precedida d’un debat profund. El més curiós de tot és que les persones que els dissenyen s’han format en un entorn educatiu molt distint del que plantegen, on hi havia persones.


Falta fer-se la pregunta sobre quins beneficis aporta introduir aquestes eines?

Exacte, davant del disseny, la primera pregunta que ens hauríem de fer és si cal. En l’àmbit educatiu, crec que hi ha uns beneficis, que impliquen arribar a una democratització de l’ensenyament, perquè hi ha persones que no tenen accés a aules físiques o a l’educació complementària, però sí a una mena de xarxa o a una biblioteca del poble. No defenso una substitució, penso que la reivindicació ha d’estar dins de les aules físiques, perquè mentre aquesta tecnologia i la transformació digital es va integrant a les aules, cada vegada les ràtios són més elevades. L’únic benefici que li veig a la IA en aquest àmbit és com a complement, però sense oblidar la reivindicació i la lluita per una educació pública de qualitat. No té cap sentit que aquestes eines entrin en el terreny social de l’educació, on el problema principal és que falten professionals. Amb la sanitat passa una cosa semblant: hi ha robots i sistemes que ajuden, capaços de moure una persona, però la persona malalta necessita un altre ésser humà.

“La intel·ligència artificial respon a una raó instrumental i a una lògica capitalista”

 

El sistema de xat GPT-4 ha irromput amb força en els entorns educatius i alhora està generant debat. Per què ha pres tant protagonisme?

Hi ha una campanya comercial darrere, però alhora implica un salt qualitatiu. Ja existien models basats en aprenentatge per reforçament, la diferència és que en aquest hi han treballat moltes persones. És la primera vegada que s’està a prop de passar la prova de Turing, que mesura la capacitat d’una màquina d’exhibir una resposta similar a la d’una persona, tot i que no entén els matisos del llenguatge, ni les ironies, etcètera. El xat ha fet aflorar el debat de prohibició o integració. Per mi, ha d’haver-hi una integració evident, però cal tractar dos reptes ètics i socials: la desinformació i les repercussions de l’automatització de les tasques.


Pel que fa a la desinformació, el xat dona informació incorrecta i també se n’inventa.

Sí, objectivament el xat té aquestes limitacions, s’inventa referències i cites, i pot canviar la resposta per a una mateixa pregunta. No hem d’oblidar que no està dissenyat per a donar respostes certes sinó perquè l’utilitzem i tinguem la sensació d’estar en un diàleg productiu. Ara bé, amb independència de si el xat dona informació bona o no, les persones el faran servir igualment. Fins i tot pot ser paternalista advertir d’això, quan TikTok també dona informació incorrecta i el jovent el fa servir com a eina d’informació.


I l’automatització de tasques comportarà inevitablement la pèrdua de llocs de feina?

“Els ideòlegs actuals són grans empreses tecnològiques com Google, Amazon, Facebook i Microsoft, amb fronteres difuses i uns interessos molt clars: fer-se més rics”

Pot haver-hi gent que perdi la feina, perquè GPT-4 és capaç, per exemple, d’organitzar cursos didàctics. Quan es dissenya un sistema de IA, és molt important veure el context on es desenvolupa i potser ara mateix la societat no està preparada per al xat. Estar-ho es traduiria en que siguem capaces de reduir la jornada de treball si tenim eines que ens facilitin certes tasques o en establir una renda bàsica universal, però els mitjans de producció estan en mans de quatre persones que no ho faran.


Aleshores, estem posant el focus del debat en un lloc equivocat?

La divulgació de la IA que insisteix en les qüestions socials, les repercussions i les implicacions és bàsica. La ciutadania no experta ha de participar activament en el debat, només així hi haurà un canvi polític real. Hem d’entendre que eines com el xat acabaran amb algunes feines, però hem d’aconseguir canviar el paradigma laboral. Cal repartir la riquesa generada per la introducció de la IA, perquè el benefici no és fruit d’un parell d’enginyeres o informàtiques, sinó d’un esforç social i col·lectiu, hi ha institucions que hi han contribuït.

“La intel·ligència artificial respon a una raó instrumental i a una lògica capitalista”

Creus que

Igualment estem anant molt de pressa?

Anem massa ràpid i es veu clarament amb el xat en l’àmbit educatiu. Això és un problema i estic d’acord amb la carta oberta d’experts en intel·ligència artificial que demana una moratòria del ChatGPT. Crec que els sistemes de IA haurien de ser d’alguna manera com els medicaments, que passen un control abans de llançar-se al mercat.


A part de la velocitat, vivim un moment de rebel·lió contra els límits?

Existeix la fal·làcia del salt qualitatiu, perquè tot el desenvolupament que hem fet fins ara és quantitatiu: abans, el sistema feia un parell de tasques i ara en fa un milió i més de pressa. La fal·làcia és pensar que afegint-hi capes farem el salt a l’empatia, al coneixement del sentit comú, a l’aprenentatge, a la ironia… on jo crec que no arribarem mai. El xat, per exemple, fa un munt de coses o la robòtica ha avançat moltíssim, però estem igual de lluny pel que fa a les qüestions més humanes. No hem avançat des de l’any 1956. Una màquina podrà aprendre a jugar als escacs, però no s’emprenyarà si perd ni s’enamorarà de tu jugant.


Sigui com sigui, la IA forta és inassolible?

Sí, i, així i tot, hi ha gent que hi treballa. La IA forta consistiria a fer un salt qualitatiu que no hi ha manera de fer, però és el somni des de Pigmalió: l’ésser humà creant una cosa semblant, la persecució de la immortalitat. Som finits, però aspirem a la transcendència infinita, a aconseguir crear una vida artificial. La literatura i la filosofia estan plenes d’aquest somni. Són somnis o reptes científics on no hem arribat i crec que no arribarem, però ja estem patint conseqüències dolentes de tot això, ja s’està utilitzant la IA i no per al benefici col·lectiu.


Els nous sistemes no generen més benestar humà?

No, perquè no hi ha un canvi social. Si hi hagués un canvi social que entengués que la novetat s’hauria d’utilitzar per a un benefici col·lectiu i social, seria diferent. Per exemple, sobre la conducció automàtica, que està envoltada de molts dilemes ètics no resolts, ens hauríem de plantejar què passa si no l’implementem. O preguntem-nos com estava el món laboral fa deu anys i com està ara, malgrat l’evolució dels enginys de IA. En el sector del periodisme, per exemple, existeixen els correctors de textos, els sistemes de traduccions automàtiques o l’accés a molta informació, però les periodistes estan millor o pitjor que abans? De moment, la intel·ligència artificial només té una dimensió econòmica, és a dir, respon a una raó instrumental i a una lògica capitalista. No podem desvincular els enginys del lloc on es decideixen, on es dissenyen i on es fan servir. Mentre no canviem la societat, la IA no aportarà un benefici clar. Algú et posarà l’exemple de la medicina, on hi ha sistemes que diagnostiquen molt bé. Cert però, i tota la resta?


Quin paper pot jugar la filosofia en el camp de la IA?

La filosofia, les humanitats i les ciències socials han de tenir un paper important, sobretot a l’hora de decidir què es fa, com es fa i per a qui es fa. Els sistemes de IA, des del punt de vista informàtic, seguiran un objectiu, que és fer una funció, però sempre manca el context. La filosofia, en particular, també pot ajudar a entendre quina és la relació que les usuàries tindran amb el sistema. Amb el ChatGPT, per exemple, la usuària mantindrà una relació d’agència, pensarà que és un agent que busca la veritat, i projectarà unes intencions que no estan en el disseny del programa. Alhora, la filosofia fa milers d’anys que es pregunta què és una bona explicació i actualment hi ha l’àrea IA Explicable, que són aquells sistemes que no només duen a terme una tasca sinó que, a més, expliquen per què volen fer-la. Això és central, perquè sense explicacions no pot haver-hi justícia. En l’actualitat, no hi ha un diàleg des de les facultats de filosofia amb la comunitat científica i tampoc des de la comunitat de la IA amb les humanitats; només hi ha la intenció de tenir-lo.

Article publicat al número 567 publicación número 567 de la Directa

Donacions

Fes una donació

FES UN DONATIU