La intel·ligència artificial, un instrument clau de censura a la Xina

  • Un nou informe revela el rol de la IA en l'aparell de censura del govern xinès, especialment contra les minories ètniques i lingüístiques

VilaWeb
Un vianant passa per davant de la Torre Perla Oriental, la torre de telecomunicacions més alta de Xangai, la setmana passada (fotografia: Alex Plavevski/Efe).
03.12.2025 - 21:40

The Washington Post · Katrina Northrop

Pequín ha aprofitat l’auge de la intel·ligència artificial (IA) per reforçar el control sobre els ciutadans, tot desplegant tecnologia punta per a millorar la censura a internet, segons que revela un nou informe de l’Institut Australià de Política Estratègica (ASPI).

El govern xinès sempre ha monitorat amb gran detall la publicació de continguts políticament delicats a internet, i l’ha censurat implacablement. Però l’informe del think tank, amb seu a Canberra, revela que els funcionaris del govern recorren com més va més a la intel·ligència artificial per estrènyer el cèrcol sobre la dissidència, i deleguen sovint a plataformes privades la tasca de facilitar i agilitar la censura del Partit Comunista Xinès (PCX).

“La Xina aprofita la IA per reforçar l’eficiència i la capacitat d’intrusió dels seus sistemes de control: la IA permet al PCX de monitorar més persones, i també monitorar-les amb més detall i amb menys recursos”, diu Nathan Attrill, analista en cap de l’ASPI i un dels autors de l’informe. “La IA potser no crea mecanismes de censura nous, però sí que reforça els sistemes de control social del PCX.”

La cursa per l’hegemonia de la IA ha esdevingut un dels grans punts de fricció geopolítica entre la Xina i els Estats Units. Ambdós països compten amb empreses capdavanteres en el sector, com són DeepSeek (Xina) o OpenAI (Estats Units), que competeixen pel control del mercat. De fet, els Estats Units han limitat l’accés de les companyies xineses als xips avançats que calen per als models d’IA més capdavanters, una decisió motivada per la preocupació que els avenços de Pequín en el sector han generat a Washington.

Un dels avantatges de la Xina en aquest àmbit, segons que expliquen els experts, és que ja ha començat a aplicar a gran escala models d’IA al món real. Les empreses privades que treballen amb el govern xinès tenen accés a quantitats enormes de dades que poden utilitzar per a desenvolupar models encara més precisos.

Fergus Ryan, analista en cap de l’ASPI i coautor de l’informe, explica que les característiques específiques de la IA xinesa podrien tenir repercussions molt més enllà de la Xina, atesa la voluntat de les companyies d’exportar els seus models a l’estranger. “Això és clau”, diu. I continua: “Si no entenem com es configuren i limiten aquests sistemes en comparació amb la IA no xinesa, hi ha el perill d’importar als nostres països la censura i el control polític implícits en aquests sistemes.”

El sistema de censura a internet del govern xinès, conegut informalment com “el Gran Tallafoc”, actua com una mena de barrera digital per als mil milions d’usuaris d’internet del país, que tan sols poden accedir a la informació que el govern considera políticament acceptable. Però monitorar l’allau de missatges i continguts crítics amb Xi Jinping que es publiquen diàriament, per exemple, és altament costós, i demana molt de temps.

Aquests darrers anys, la IA ja ha començat a agilitar aquest procés. L’informe –que es basa en anàlisis col·laboratives de pàgines web d’empreses xineses, anuncis de la policia, informes de contractació pública i publicacions del govern xinès a les xarxes socials– detalla com aquests models es fan servir a la Xina per filtrar grans quantitats de contingut publicat a les xarxes amb l’objectiu de limitar l’abast de les publicacions considerades problemàtiques d’un punt de vista polític.

El govern ha encomanat a gegants tecnològics xinesos, com ara Baidu, Tencent i ByteDance –propietària de TikTok–, la tasca de desenvolupar models d’IA per a agilitar els sistemes de censura del govern. Les plataformes de tot el món monitoren l’activitat dels usuaris per blocar continguts il·legals, com ara, la pornografia; a la Xina, aquest blocatge també s’estén a tots aquells continguts polítics que puguin desplaure Pequín.

N’és un exemple Tencent –la propietària de WeChat, l’equivalent xinès de WhatsApp–, que ha desenvolupat un sistema que monitora el comportament dels usuaris i els assigna de manera automàtica “nivells de risc” que fa servir per identificar els infractors reincidents.

Algunes empreses venen les seves eines de moderació de continguts amb IA a unes altres empreses que vulguin reforçar el control sobre els continguts que es comparteixen a les seves respectives plataformes i, d’aquesta manera, assegurar el complement amb la legislació xinesa, segons l’informe. Baidu, per exemple, comercialitza una gamma d’eines de moderació de continguts personalitzables que permet de monitorar vídeos, imatges o texts que puguin contenir continguts prohibits.

Així i tot, els sistemes de censura del govern xinès continuen tenint un fort component humà. La supervisió humana és necessària per a detectar estratègies d’evasió de la censura –com ara, l’ús de noms en clau per a referir-se a qüestions políticament delicades–, cosa que ha obligat les empreses a continuar contractant moderadors de continguts, segons que han descobert els investigadors de l’ASPI. En aquest sentit, els autors de l’informe expliquen que la censura digital a la Xina segueix més un “model híbrid”, en què humans i IA cooperen per reforçar els sistemes de control.

Baidu, ByteDance i Tencent no han respost a les preguntes de The Washington Post.

El govern xinès està especialment interessar a controlar l’activitat a les xarxes dels uigurs i els tibetans, els dos grans blancs de la campanya de repressió de Pequín contra les minories ètniques del país. No obstant això, la llengua –els usuaris tibetans acostumen a escriure a les xarxes en tibetà; els uigurs, en uigur– sovint representa un obstacle per als censors.

L’informe explica que, en un intent de superar la barrera idiomàtica, el govern xinès ha dedicat més recursos al desenvolupament de models d’IA en les llengües de les minories ètniques.

Aquest estiu, sense anar més lluny, l’Ajuntament de Lhasa, la capital del Tibet, convocà una licitació per a crear un model d’IA de llengua tibetana.

El 2023 es fundà a Pequín el Laboratori Estratègica d’Anàlisi Intel·ligent i Governança de la Seguretat de les Llengües Ètniques, un centre dedicat específicament al desenvolupament de models d’IA en les llengües minoritàries del país. El centre, que no ha respost a les preguntes de The Washington Post, es dedica especialment al desenvolupament de models d’IA en mongol, tibetà i uigur per a analitzar l’opinió pública i promoure la “unitat ètnica”, segons que explica la pàgina web.

Però l’ús de la IA que en fa Pequín va molt més enllà de les xarxes.

L’informe de l’ASPI, per exemple, descriu com la IA s’ha anat integrant al sistema jurídic xinès, cosa que alguns analistes consideren que podria crear problemes en matèria de rendició de comptes i que podria reforçar els prejudicis existents contra les minories ètniques i altres grups.

Per exemple, un acusat identificat amb tecnologia de reconeixement facial podria ser jutjat en un “tribunal intel·ligent” –que fa servir la IA per examinar els expedients dels acusats i aconsellar sobre les sentències– i acabar en una presó que fa servir la IA per predir les emocions i l’estat d’ànim dels reclusos, segons l’informe.

El Ministeri de Justícia xinès no ha respost a les preguntes de The Washington Post sobre l’informe.

La Xina no és pas l’únic país que fa servir la IA en l’àmbit judicial: als Estats Units, per exemple, la policia empra programari de reconeixement facial per a identificar sospitosos. Kai-Shen Huang –investigador de l’Institut de Recerca per a la Democràcia, la Societat i les Tecnologies Emergents, un think tank de Taipei– explica que no totes les conseqüències d’integrar la IA a la justícia han de ser necessàriament negatives: l’ús d’aquestes eines, explica, podria millorar l’eficiència del sistema judicial i ajudar a reduir-ne la saturació crònica, especialment a les ciutats.

“El sistema judicial xinès està constantment desbordat per l’acumulació de casos”, diu Huang, que ha investigat l’ús de la IA al sistema judicial xinès.

El govern ha promogut activament la integració de la IA a les burocràcies locals, cosa que significa que els funcionaris xinesos tenen incentius polítics per a potenciar l’ús de la IA; per la seva banda, els investigadors i les empreses tenen incentius econòmics per a exagerar les capacitats de la tecnologia i poder guanyar més licitacions públiques, segons que explica Huang. Això, afegeix, dificulta l’anàlisi de l’impacte real d’aquesta tecnologia en el sistema polític xinès.

“Quan els investigadors proven d’obtenir finançament del govern, sovint es fixen objectius poc realistes que la IA difícilment podrà complir”, diu. “El resultat són aplicacions i models que es promocionen a si mateixos com a IA però que no ho són, o bé que són força inservibles a la pràctica. És una cosa força comuna.”

Rudy Lu, de Taipei (Taiwan) estant, ha contribuït a aquest article.

 

Recomanem

Fer-me'n subscriptor