Yuval Harari: “En la intel·ligència artificial, hi ha un potencial totalitari”

  • Crònica de la conferència de premsa de l'aclamat filòsof, que ahir va presentar 'Nexus. Una breu història de les xarxes d'informació des de l'edat de pedra fins a la IA' (Grup 62)

VilaWeb
Yuval Harari, en una imatge d'arxiu.
Andreu Barnils
16.09.2024 - 21:40
Actualització: 17.09.2024 - 07:55

Nexus (Grup 62), el llibre de Yuval Harari sobre la intel·ligència artificial i la història de les xarxes d’informació, es presenta aquests dies. Harari, aclamat filòsof i historiador israelià, ha venut quaranta-cinc milions d’exemplars d’obres anteriors (Sàpiens, Homo Deus, 21 lliçons, etc.) en seixanta-cinc idiomes, inclòs el català. Ahir l’autor, que fa ronda pels Estats Units, va presentar aquest llibre de 691 planes en la versió en català (traduït per Núria Busquet) i en castellà en una conferència de premsa en línia atesa per més de cent periodistes, inclosos mitjans catalans, sud-americans i espanyols. Feta a dos quarts de sis de la tarda per adaptar-se als horaris de banda i banda de l’Atlàntic, la conferència de premsa va durar una hora i va permetre una quinzena de preguntes, enviades per escrit i filtrades pels editors de tantes que n’hi havia.

Les preguntes es van centrar sobretot en la segona part del llibre (la que tracta sobre la intel·ligència artificial) i la tercera (com afecta la IA la democràcia i la dictadura). La primera part, la que parla de la història de la informació (taules d’argila a l’edat antiga, premsa a la moderna, etc.) gairebé no es va tocar, cosa que hauria fet feliç Dennis Duncan, crític del New York Times que troba aquesta part feixuga, mentre celebra que algú com Harari sintetitzi com ningú els riscs, perills i avantatges de la IA.

I, efectivament, ahir Harari va desplegar idees-força del seu llibre d’una manera elegant i sintètica. Per exemple, com és que tenim les tecnologies de la informació més potents de la història i s’ha trencat el diàleg entre nosaltres? “Això em pregunten aquí als Estats Units, on la gent cada vegada parla menys els uns amb els altres.” O, per exemple, que no és que la gent aboqui odi a les xarxes, sinó que l’odi sigui promogut. El problema, deia Harari, no és la llibertat de l’usuari per a escampar mentides, fins i tot odi (“la gent en general, pot mentir a la plaça. I la gent té el dret de ser estúpid”), sinó que Facebook, Twitter i alguns altres hagin vist que nosaltres dediquem més temps a llegir, compartir i comentar notícies d’odi que no pas notícies sobre la compassió. “I com que ells fan negoci amb el nostre temps (podran vendre més productes, podran saber més dades nostres si estem quaranta minuts a Twitter i no pas deu), ells promouen l’odi. No cerquen l’odi, sinó els diners.

Podeu comprar Nexus. Una breu història de les xarxes d’informació des de l’edat de pedra fins a la IA, de Yuval Harari, a la Botiga de VilaWeb

A la conferència de premsa no va sortir, però és molt il·lustratiu l’exemple que l’israelià Harari escriu al llibre sobre la neteja ètnica de budistes contra musulmans que va haver-hi a Myanmar, que els algorismes de Facebook no solament no van frenar, sinó que van multiplicar: el 50% dels vídeos d’un fanàtic budista en concret, molt influent, i finalment jutjat, no van ser vists per seguidors, sinó per espectadors de pas, a qui s’apareixia el vídeo just després de veure’n un de seu. L’algorisme l’enviava. Era la manera que Facebook tenia que ens quedéssim més estona a la xarxa. El problema és que centenars de milers de musulmans van ser expulsats de casa, milers assassinats i milers violats, basant-se en mentides i falses acusacions, com les del monjo, que van encendre les masses.

A Harari, alguns li critiquen la idea que la IA ens deixa sense control, però ahir la va defensar amb força. “La IA deixa els humans sense control, i decideix pel seu compte, cosa que no passava amb la impremta o les tecnologies precedents. La bomba nuclear no decidia quan caure i a on? Però la IA pot prendre decisions per si mateixa”, com ara què es veu, i en quin ordre, als murs de Facebook. Aquesta IA independent dels humans és central en Harari, i font de titulars extrets del llibre, que alguns critiquen per apocalíptic i alguns altres elogien per sintètic. “Parlem del possible final de la història humana. No el final de la història, sinó el final de la part dominada pels humans”, diu a la pàgina 309.

Una altra idea de Harari és que no sols hem de patir per allò que les màquines faran pel seu compte, sinó per què faran els humans complint ordres de màquines. Al llibre, posa l’exemple d’un jove detingut per haver provat d’assassinar la reina d’Anglaterra, animat per un bot d’internet. El jove, tímid, volia impressionar Sarai, una noia que havia conegut per internet. Però Sarai era un bot d’intel·ligència artificial. Una màquina que parlava amb el jove. Més de 5.000 missatges entre tots dos, molts dels quals sexualment explícits. Doncs a la conferència de premsa, Harari va admetre el poder de seducció que troba en els relats creats pel ChatGPT, relats que, tot i ser farcits d’errors, són convincents i amb sentit. “I tot just som a l’estadi de les amebes. Imagineu-vos què podran fer no les amebes de ChatGPT, sinó els Tyrannosaurus rex que tindrem d’ací a deu anys. La quantitat de mites, històries i llegendes que llegirem i seran escrites per màquines, no per humans. I l’impacte que pot tenir això en les societats.” L’impacte de màquines actuant pel seu compte.

Aquesta visió un punt catastrofista de Harari, resumida en aquesta crítica a The Guardian (“Apocalipsi IA”) va ser explicitada ahir en els detalls sobre com a l’Iran, gràcies a la IA, pot detectar en segons quines dones no porten el vel pel carrer (fins i tot quines conductores no porten vel dins el cotxe) i enviar-los SMS en segons indicant que aturin el cotxe i en surtin. “Hi ha un potencial totalitari en la intel·ligència artificial”, deia Harari.

Però ahir aquesta visió es va intentar compensar amb uns minuts finals dedicats a l’optimisme, que va donar titulars com aquest: “La IA podrà salvar un milió de vides l’any”, gràcies als cotxes autoconduïts, que s’estalviarien els errors humans. O “la IA millorarà l’atenció sanitària del planeta”, perquè amb un cop de telèfon zones remotes accediran a metges en línia, molts dels quals seran intel·ligències artificials en línia.

Elogiat per haver estat capaç de divulgar idees complexes de manera original, i que enganxa, alguns també li critiquen excés de titulars. Ahir, per exemple, Harari va unir Donald Trump i Karl Marx, perquè, segons ell, tots dos tenen la visió cínica que els humans només ens movem pel poder. I que no sols l’extrema dreta, sinó també l’extrema esquerra, tenen l’objectiu de destruir la confiança en les institucions. “La dictadura es basa en el terror; la democràcia en la confiança. Si deixem de confiar, cauen les institucions i apareix la dictadura.” I, tant en els texts de Marx com en els de Trump, ell hi veu aquesta destrucció de la confiança entre nosaltres, com les xarxes també fan: “Putin, Maduro, Netanyahu, que són persones a qui només interessa el poder.”

Harari creu que la democràcia no és anar a votar cada quatre anys (“Com demostra Veneçuela, o Corea del Nord, votar cada quatre anys no et fa democràcia”). Per ell, la democràcia és un debat, un diàleg entre nosaltres, que permet el mètode de tria i error, veure i assenyalar problemes, resoldre’ls. I en això de crear debat la tecnologia és clau. “Per tenir democràcies grans, necessites tecnologia. Abans de la impremta el diàleg entre nosaltres, l’intercanvi d’idees, no era possible a gran escala. Només ciutats-estat podien aspirar a la democràcia, podien parlar entre ells. No hi va haver grans democràcies fins que la impremta no va permetre de circular idees i debat a gran escala.” Ara la IA podria fer això mateix. “No podem separar tecnologia i democràcia perquè van plegats.”

Harari és partidari que les grans tecnologies dediquin un 20% a fer les xarxes més segures. “Oi que no deixaríem que es venguessin cotxes sense frens? Doncs les xarxes també han de ser segures”, i no deixar que l’odi, les mentides i les notícies falses siguin el model de negoci de les grans empreses. “Però les grans empreses són en una mena de cursa armamentística, a veure qui arriba abans. Primer fem que el cotxe corri molt. I posem-lo en circulació. Després ja vindran els frens. És summament perillós.”

Harari, per anar acabant, veu Silicon Valley amb una mirada ingènua, que ens fa creure que arribarem a la veritat mitjançant la informació. I ell creu que no. Harari creu que la veritat no és informació. “La veritat requereix diners, temps i esforços. Diaris, premsa lliure, acadèmics i universitats. En canvi, la mentida es barata. No cal contrastar-la. S’escriu en un moment i s’escampa de pressa. Per això la premsa –deia Harari– teniu un gran potencial per a protegir o destruir la democràcia. I grans dictadors, com Lenin o Mussolini, van ser periodistes.”

Un apartat final sobre la relació entre filosofia i IA (“la pregunta purament teòrica de què és pitjor, matar un avi o dos nens, ara s’haurà de resoldre pels cotxes que s’autocondueixen. Per tant, els filòsofs, no tan sols els enginyers, tenen un paper a l’hora de dir com es dissenya el cotxe”) va tancar una hora de conversa amb Harari, filòsof, historiador i divulgador, també de paradoxes: “Com és que tenim les tecnologies de la informació més potents de la història i s’ha trencat el diàleg?”

La premsa lliure no la paga el govern. La paguem els lectors.

Fes-te de VilaWeb, fem-nos lliures.

Fer-me'n subscriptor
des de 75€ l'any
Fer-me'n subscriptor