El toc d’atenció del padrí de la IA: podríem ser a prop del final dels humans si no hi fem res

  • El premi Nobel advoca per una forta regulació que intenti fer segura la IA · Repassem els perills als quals ens enfrontem, segons aquest prestigiós investigador

VilaWeb
16.08.2025 - 21:40
Actualització: 17.08.2025 - 23:10

En una entrevista de fa poc a un popular canal en anglès de YouTube, Geoffrey Hinton ha advertit dels greus perills a què ens enfrontem amb la intel·ligència artificial. L’acadèmic anglo-canadenc, que rebé el premi Nobel de Física el 2024 pel seu treball en el desenvolupament de xarxes neuronals, una peça clau en la IA, va abandonar Google el 2023, companyia amb la qual havia treballat durant deu anys. El motiu, a banda de voler retirar-se a setanta-cinc anys, fou poder parlar lliurement dels riscs de la intel·ligència artificial i conscienciar mandataris i població general de les accions que calen per a evitar que una nova espècie tecnològica molt més intel·ligent que nosaltres acabi amb els humans. Segons el veterà investigador, ja assistim a la substitució dels humans per la intel·ligència artificial en molts llocs de treball intel·lectuals mundans. Quan li pregunten com podem evitar-ho, si més no a curt termini, advoca per dedicar-nos a feines que requereixen una gran destresa física, com ara ser lampista. Què podem fer per evitar que una IA superintel·ligent decideixi que no ens necessita? Tot seguit, destaquem les principals idees d’aquest premi Nobel sobre la IA i el nostre futur.

Els riscs de la IA a curt termini

Geoffrey Hinton considera que la intel·ligència artificial és una amenaça existencial per a l’espècie humana, però distingeix entre dos tipus de perill greus. El primer, que és al qual ens enfrontem a curt termini, és el mal ús de la IA per part dels humans, fenomen que, de fet, segons el Hinton, ja ha començat. L’investigador destaca, per exemple, que els ciberatacs han augmentat d’un 12.000% gràcies a la intel·ligència artificial. Per una banda, pot llegir milers de milions de línies de codi sense problema, introduir-hi petits canvis i tenir molta paciència, en espera que alguna dels milions de modificacions que faci acabi reeixint. A més, afegeix que són molts experts els que consideren que la intel·ligència artificial fins ara fa atacs clàssics, copiats dels humans, però a una escala superior. En aquesta mena d’atacs podem prendre contramesures, com hem fet fins ara. Però aquests mateixos experts consideren que a partir del 2030 la IA tindrà prou intel·ligència per a fer atacs de característiques que ningú no ha pensat fins ara i entrarem en una nova era plena d’incertesa.

Quan li pregunten quina és l’àrea que més el preocupa sobre els ciberatacs, Hilton afirma que els bancs. Sobretot en el supòsit que prengui el control d’accions de borsa i les vengui. No podríem recuperar els diners de cap manera. En aquest sentit, Hinton diu que ha pres mesures en el seu àmbit personal: ha dividit els estalvis en tres bancs diferents amb l’esperança que si un atac triomfa en un banc, encara conservarà diners en els altres dos. L’acadèmic també fa una còpia de seguretat en un disc dur físic, i no pas al núvol, per si de cas, per conservar les dades sense dependre d’internet.

Geoffrey Hinton (a l’esquerra) en una entrevista a YouTube (imatge: The diary of a CEO).

Però, sens dubte, un dels perills que més preocupa a l’investigador són les armes letals autònomes, les que poden decidir de matar algú sense supervisió humana. En aquest sentit, Hinton adverteix que la intel·ligència artificial facilita la capacitat d’invasió de països petits per part d’estats més grans. Fins ara, els països més poderosos tenen exèrcits més grans i superiors militarment, però en cas d’envair un altre país, qui hi va i mor són soldats humans. El retorn de taüts dels soldats morts provoca protestes i oposició de la població civil del país agressor a la guerra. Tanmateix, si en compte d’humans hi anessin robots i el que tornen són les seves restes destruïdes, segon Hinton no hi hauria protestes ciutadanes, o n’hi hauria moltes menys, i això facilitaria polítiques expansionistes que podrien fer entrar la humanitat en una nova època de guerres generalitzades.

Un altre dels aspectes que preocupa enormement al pioner de la IA és la pèrdua de llocs de treball. Presenta tres escenaris, que, de fet, ja són una realitat. En primer lloc, la pèrdua de llocs de treball humans substituïts directament per la intel·ligència artificial. Feines de tipus intel·lectual “mundanes”, com ara els teleoperadors que treballen als serveis d’atenció al client. Empreses d’aquesta mena al món anglosaxó ja han començat a acomiadar milers de treballadors, perquè la IA en anglès té un domini lingüístic oral molt bo. En unes altres àrees no és tan evident i no té un impacte tan directe: millora la productivitat dels treballadors, però això implica automàticament la reducció de plantilles. Hinton destaca que hi ha titulats universitaris que tenen problemes per a trobar feina per aquest motiu. En aquests dos casos, Hinton considera que no passarà com en unes altres revolucions tecnològiques, en què es crearen noves feines.

Molts experts coincideixen a afirmar que la IA ens deixarà sense feina (imatge: Amazon).

Les màquines van substituir la força muscular, però la IA substitueix el cervell. I Hinton nega que la intel·ligència artificial no pugui ser tan creativa com els humans. Afirma que no hi ha cap raó perquè la IA no sigui creativa i que, de fet, ho serà molt més que nosaltres. El motiu és que la creativitat és la barreja d’informació, amb analogies entre conceptes per a generar noves idees. La IA disposa de moltes més dades que els humans, i té molta més capacitat de connectar, transmetre i barrejar aquesta informació. Per tant, les feines creatives també corren perill. Tanmateix, Hinton considera que hi ha una feina que pot no ser afectada per això. Parla específicament dels metges. En aquest cas, que la IA els permeti d’augmentar la productivitat no implica que calguin menys metges. Aquests es podran dedicar a analitzar més pacients i malalties que ara mateix no es poden cobrir per manca de recursos.

El segon tipus de perill de la IA

Hinton destaca un segon tipus de perill que representa una amenaça per a l’espècie humana a llarg termini. Per una banda, deixa clar que la IA serà superintel·ligent, és a dir, molt més intel·ligent que els humans. Si fa uns anys ell mateix afirmava que això no passaria fins a l’any 2070 o més enllà, ara creu que serà en un termini de 10-20 anys. I assenyala que, fins i tot, hi ha investigadors que creuen que es pot esdevenir en només 5-10 anys. Serà la primera vegada que els humans trobem algú més intel·ligent que nosaltres. I, segons Hinton, ningú sap què passarà. Apunta dues línies de pensament, dos extrems. Aquells que asseguren que la IA no voldrà destruir-nos, ja que l’hem creada nosaltres i sabrem fer-ho perquè actuï així. I aquells que creuen que la IA ens destruirà de totes totes. Segons Hinton, no sabem quina és la probabilitat perquè s’esdevingui un escenari o un altre, però apunta que no hi ha bons precedents perquè una espècie menys intel·ligent controli una de més intel·ligent: no ha passat mai fins ara.

Els nadons són un dels pocs exemples en què un ésser menys intel·ligent té el control (imatge: Hollie Santos/Unsplash).

Així i tot, apunta un exemple: les mares i els nadons. Malgrat que una mare és més intel·ligent, el nadó té el control amb el seu plor, perquè la mare el troba insuportable. Però Hinton considera més aviat que la IA és ara mateix com un cadell de tigre. De moment és petit i ens ve de gust d’acaronar-lo i jugar amb ell. Però quan sigui adult, si no el controlem, ens pot matar en pocs segons. Com podrem evitar que una IA superintel·ligent decideixi que no ens necessita per a res i pot acabar amb nosaltres? Hinton planteja escenaris com ara que una intel·ligència artificial pugui dissenyar un virus biològic que sigui altament contagiós, molt letal i que trigui molt de temps a expressar-se. Tota la població del planeta es podria contagiar abans no en fóssim conscients de l’existència i quan el virus s’activés seria massa tard.

Aquest és un risc que també podem crear els humans i els governs amb l’ús de la IA, perquè desenvolupar un virus amb biotecnologia avui és cosa de pocs milions de dòlars, segons Hinton. Hi ha un altre risc que també podem crear els humans i els governs amb la IA: la desestabilització de països sencers. Això es pot fer recopilant tota la informació possible dels representants polítics i fer-la pública a conveniència. Fins i tot creant informació falsa indistingible de la real. Hinton és molt crític amb la situació actual de les xarxes socials, que tenen l’incentiu de crear vídeos que ens indignin, una barreja d’emprenyament i sensació de ser nosaltres qui tenim la raó i no els altres, i això pot dividir societats. De fet, considera que actualment hem perdut els espais comuns, com ara tenir uns grans mitjans de comunicació que siguin la mateixa referència per a tots els membres d’una societat. Una IA superintel·ligent pot crear vídeos d’aquesta mena per crispar-nos i conduir societats senceres a l’autodestrucció.

Una altra via indirecta que pot desestabilitzar societats és que la IA augmentarà la desigualtat entre rics i pobres, i això fa empitjorar la cohesió d’un país. Per una banda, hi haurà aquells humans que conservin la feina gràcies a la intel·ligència artificial, fins i tot fent-ne negoci comercialitzant-la i enriquint-se enormement. Per una altra, hi haurà milions de persones sense feina o amb ingressos mínims.

Com ho podem evitar?

Hinton considera que no podem preveure tots els riscs. És a dir, que no podem dissenyar contramesures per a cada risc. Diu que hem de girar la truita i dissenyar d’entrada una IA que no vulgui destruir-nos, que no tingui cap necessitat de fer-ho. En aquest sentit, nega dues de les idees que es repeteixen sovint. En primer lloc, que la IA no podrà tenir mai consciència. Segons ell, no hi ha cap element que impedeixi que la intel·ligència artificial tingui consciència. Tot apunta que la tindrà. La segona és la que fa referència al fet que pugui tenir sentiments. De fet, considera que pot ser que ja en tingui. Posa l’exemple de les competicions de lluita de robots, en què un robot petit es troba amb un de gran. El petit sortirà corrent, en una reacció que es pot considerar por, si més no, amb un resultat anàleg al que fem els humans. De fet, creu que la IA tindrà sentiments perquè li serà útil.

L’aplicació de la IA al sector militar és una de les preocupacions principals de Geoffrey Hinton (imatge: Ghostrobotics).

Hinton és molt crític amb el capitalisme. No perquè no reconegui els grans avenços que ha aportat a la humanitat, sinó perquè l’incentiu a maximitzar els beneficis individuals en l’àmbit de la intel·ligència artificial pot conduir el conjunt de la societat al desastre. Tanmateix, apunta la solució que ha funcionat fins ara en molts àmbits de l’economia capitalista: la regulació. Una regulació que posi per davant el benefici general del benefici de les companyies tecnològiques i els interessos dels països poderosos. L’objectiu d’aquesta regulació seria que els productes perjudicials no generin guanys econòmics. En aquest sentit, afirma que, tot i que no sigui un resultat assegurat, existeix la possibilitat que puguem crear una IA segura que no ens destrueixi. Per aquest motiu, perquè potser és l’última oportunitat que tenim, cal que dediquem tots els recursos possibles, i les persones més intel·ligents i capaces, a fer lleis que permetin la creació d’una intel·ligència artificial segura.

En qualsevol cas, com a pas previ, hem d’acceptar que podríem ser a prop del final com a espècie, si no encertem el camí ben aviat, i que som davant d’una veritable amenaça existencial a curt termini. Per això creu que els governs han d’actuar ràpidament, i fer, si cal, un govern mundial en l’àmbit de la IA. Sobretot tenint en compte la cursa tecnològica en la qual hem entrat, principalment entre els EUA i la Xina. I que ara mateix ha fet que els EUA comencin a desregular la IA per poder competir amb el gegant asiàtic. O que a la UE, que ha començat a regular la intel·ligència artificial, n’hagi exclòs les principals amenaces, com ara el sector militar en el context de rearmament per a combatre l’agressivitat creixent de Rússia, tot deixant via lliure a les armes letals autònomes.

Quan l’entrevistador li pregunta què recomana a familiars i amics, Hinton diu que els recomana que s’orientin a feines que requereixin una gran habilitat física, no pas intel·lectual en què la IA ens supera clarament. Com ara la feina de lampista. La IA trigarà més temps a ser bona en la manipulació física d’objectes. Tanmateix, admet que li genera molta incomoditat pensar en el futur de fills i néts, i defuig de pensar-hi perquè potser hauran d’enfrontar-se a un futur terrible. Hinton creu que la Renda Bàsica Universal podria no ser una solució a la manca generalitzada de feina, perquè la dignitat humana, sentir-se útil en una societat, per a moltes persones va associada a una feina, la qual cosa pot generar problemes d’estabilitat emocional i salut psicològica i conduir a una gran infelicitat.

En definitiva, el padrí de la IA considera que som en una cruïlla existencial resultat del fet que estem a punt d’assistir al moment en què la intel·ligència artificial esdevindrà més intel·ligent que els humans. Segons que diu, hi ha prou persones intel·ligents i recursos per a crear una IA segura. També reclama que cal que ens governin polítics intel·ligents, cosa que considera que ara mateix no tenim. La regulació depèn dels sistemes polítics, i actualment van en la direcció contrària a allò que Hinton considera que cal fer de manera urgent.

Recomanem

Fer-me'n subscriptor