L’atac nuclear hipotètic que ha fet miques la relació entre el Pentàgon i Anthropic

  • La disputa entre el gegant tecnològic i el govern nord-americà es redueix a una discrepància fonamental: si la IA hauria de tenir la potestat de prendre decisions de vida o mort

VilaWeb
Muntatge fotogràfic amb imatges del Pentàgon, el logotip d'Anthropic i el secretari de Defensa dels Estats Units, Pete Hegseht (fotografia: Carolyn Van Houten/The Washington Post).
01.03.2026 - 21:40

The Washington Post · Ian Duncan, Elizabeth Dwoskin i Tara Copp

Divendres a la nit, el govern Trump afegí Anthropic, l’empresa d’intel·ligència artificial, a la llista negra, una decisió que obliga l’administració pública nord-americana a deixar-ne de fer servir els productes immediatament, i que també prohibeix a qualsevol altra companyia que treballi per l’exèrcit nord-americà de fer-hi negocis.

“Els llunàtics d’esquerra d’Anthropic han comès un ERROR DESASTRÓS a l’hora de provar d’INTIMIDAR el Departament de Guerra i obligar-lo a regir-se pels seus termes de servei, i no pas per la nostra constitució”, escrigué Trump divendres a la nit en una publicació a Truth Social, la seva xarxa social. “L’egoisme d’Anthropic fa perillar les VIDES DELS AMERICANS, i posa en risc les nostres tropes i la nostra seguretat nacional.”

Anthropic, per la seva banda, ha avançat que apel·larà la decisió de la Casa Blanca davant la justícia, i ha insistit que no hi havia “cap base legal sòlida” perquè se l’inclogués a la llista negra de l’executiu. El govern nord-americà, per la seva banda, no ha ofert cap pretext legal per a justificar la decisió d’incloure la companyia a la llista negra.

La designació d’Anthropic com a risc a la seguretat nacional dels Estats Units és una escalada extraordinària en la disputa entre el Pentàgon i l’empresa d’IA, atès que implica situar una companyia tecnològica capdavantera, i d’origen nord-americà, al mateix nivell que empreses xineses i russes considerades contràries als interessos nacionals dels Estats Units.

El govern Trump ha pres aquesta decisió després de setmanes d’escalada entre Anthropic i el Pentàgon. L’exèrcit nord-americà pretén fer servir Claude, el model d’IA d’Anthropic, per a qualsevol propòsit que s’ajusti la legalitat vigent; l’empresa, tanmateix, es nega a permetre l’ús de Claude en sistemes d’armament autònoms i en operacions interns de vigilància i espionatge a gran escala.

La pugna entre totes dues parts entrà en una dimensió completament nova el mes passat, durant una reunió especialment tensa en què es debaté quin paper tindria Anthropic en un hipotètic atac nuclear contra els Estats Units.

Un funcionari del Departament Defensa explica a The Washington Post que, durant una reunió amb representants de l’empresa el mes passat, el cap de tecnologia del Pentàgon reduí el debat a una pregunta binària: si un enemic disparés un míssil balístic intercontinental contra els Estats Units, el Pentàgon podrà comptar amb l’ajuda de Claude a l’hora de localitzar-lo i destruir-lo?

La resposta del director executiu d’Anthropic, Dario Amodei, irrità el Pentàgon, segons que explica el funcionari. “Podríeu trucar-nos i en podríem parlar”, recorda que respongué Amodei.

En declaracions a The Washington Post, un portaveu d’Anthropic nega que aquesta fos la resposta d’Amodei, titlla la versió dels fets de la Casa Blanca de “manifestament falsa” i reitera que l’empresa ha acceptat que el Pentàgon faci servir Claude per als seus sistemes de defensa antimíssils. No obstant això, els funcionaris citen aquesta reunió i un altre incident relacionat amb l’ús de Claude per a la captura del president veneçolà, Nicolás Maduro, com a dos punts d’inflexió en l’escalada de tensions entre l’empresa i el Pentàgon.

Sean Parnell, portaveu en cap del Pentàgon, digué dijous en una publicació que Washington únicament pretén emprar Claude “per a fins legals”.

“És una petició senzilla i de sentit comú, que evitarà que Anthropic posi en risc operacions militars crítiques i arrisqui les vides dels nostres soldats”, digué Parnell.

Dijous a la nit, Amodei declarà que la seva empresa estava disposada a continuar col·laborant amb el Pentàgon, però que no canviaria de parer. Els sistemes d’IA actuals, explicà, continuen sense ser prou per a poder-se integrar en sistemes de defensa sense posar en risc tant les tropes com la població civil.

“En una xifra reduïda de casos, temem que la IA pugui afeblir els valors democràtics, en compte de reforçar-los”, digué Amodei aquesta setmana, en les seves primeres declaracions públiques sobre la controvèrsia.

Emil Michael –actual sots-secretari de Defensa per a Recerca i Enginyeria dels Estats Units, i l’encarregat d’encapçalar les negociacions del Pentàgon amb Anthropic– defensa que el govern, i no pas les tecnològiques, és qui ha de tenir l’última paraula sobre com s’empra la IA al camp de batalla. Michael, que dijous acusà Amodei de “creure’s Déu” en una publicació a X, no ha respost a les preguntes de The Washington Post per a aquest article.

Anthropic difícilment esperava veure’s involucrada en una picabaralla pública amb el Pentàgon quan esdevingué la primera empresa d’IA a arribar a un acord de col·laboració amb la Casa Blanca en matèria d’informació militar classificada, a final del 2024. Però la disputa posa en relleu els problemes de l’empresa, fundada l’any 2021 per ex-treballadors d’OpenAI preocupats per la seguretat de ChatGPT, a l’hora de seguir el seu propi camí en els Estats Units de Trump.

Fa poc, Anthropic incorporà al seu consell d’administració un ex-sots-cap de gabinet del president, i també ha estudiat la possibilitat d’acceptar inversions d’un fons dirigit per Donald Trump Jr. No obstant això, la direcció de l’empresa també ha tingut múltiples disputes públiques amb representants de la Casa Blanca.

“El rerefons de tot plegat és que Anthropic no vol doblegar-se a les prioritats del govern Trump”, explica Steven Feldstein, investigador en cap del Carnegie Endowment, un think tank de Washington, que estudia l’ús de la IA en la guerra. “És una pugna tant militar com política.”

Un punt d’inflexió per a Silicon Valley?

Els experts diuen que la pugna entre el Pentàgon i Anthropic podria ser un abans i un després en la relació entre el sector de la intel·ligència artificial i l’exèrcit nord-americà.

Històricament, els gegants tecnològics nord-americans s’havien mostrat reticents a col·laborar amb el Departament de Defensa dels Estats Units. Això ha començat a canviar aquests darrers anys, en què tant inversors com treballadors del sector tecnològic s’han anat acostumant a la idea de treballar de bracet del Pentàgon.

“Ha costat molt arribar al punt on ens trobem ara”, explica Gregory Allen, assessor en cap del Centre Wadhwani d’Intel·ligència Artificial del Centre d’Estudis Estratègics i Internacionals, un think tank de Washington, i ex-director d’un centre d’IA del Pentàgon. “La diferència amb fa pocs anys és abismal.”

Així i tot, el sector fa temps que veu amb preocupació, tant d’un punt de vista ètic com legal, la possibilitat de cedir a la IA la potestat de prendre decisions de vida o mort.

Divendres a la tarda, més de 550 treballadors de Google i OpenAI, el creador de ChatGPT, signaren una carta oberta en què donaren suport a Anthropic i demanaren als seus caps que plantessin cara a les exigències del Pentàgon. A començament de la setmana passada, Jeff Dean, el cap de la divisió d’IA de Google, declarà que estava en contra de l’ús de la IA per a operacions de vigilància i espionatge, i reiterà la seva oposició l’ús de la tecnologia en sistemes d’armament autònoms.

Abans-d’ahir a la matinada, el director executiu d’OpenAI, Sam Altman, anuncià en una publicació a X que la seva empresa havia arribat a un acord amb el Departament de Defensa per a incorporar el seu model d’IA als sistemes interns del Pentàgon.

“La prohibició de l’ús de la IA per a l’espionatge en l’àmbit domèstic [als Estats Units] i els sistemes d’armament autònom són dos dels nostres principis cabdals en matèria de seguretat”, escrigué Altman. “El Pentàgon –afegí– està d’acord amb aquests principis […] i els hem inclòs en el nostre acord.” No és clar per quina raó el Departament de Defensa sembla haver acceptat aquestes línies vermelles després d’haver atacat públicament Anthropic per haver insistit a imposar restriccions molt semblants a l’ús de la seva pròpia tecnologia.

No és la primera volta que la relació entre el Pentàgon i Silicon Valley s’enrareix. El 2017, Google i el Departament de Defensa començaren a treballar plegats en un projecte d’IA anomenat Maven. Tanmateix, l’empresa se n’acabà retirant arran de les objeccions dels seus propis treballadors; l’episodi acabà empenyent Google a introduir un seguit de mesures internes, eliminades l’any passat, que en prohibiren dels models d’IA per a projectes vinculats a l’armament o l’espionatge.

Allen, en aquesta línia, explica que la relació entre el sector tecnològic i el Pentàgon trigà anys a recuperar-se d’aquell impàs. “La situació ha millorat molt en els darrers quatre anys”, diu. “L’únic que aconseguirà la disputa amb Anthropic és afegir més llenya al foc sense cap motiu.”

Hi ha qui es mostra encara més contundent. “Si [el secretari de Defensa dels Estats Units, Pete] Hegseth se surt amb la seva, tant Nvidia com Amazon i Google s’hauran de desfer de les seves participacions d’Anthropic. Això és un intent de liquidar una empresa, ras i curt. Després d’això, no puc recomanar de bona fe d’invertir en el sector de la IA als Estats Units; no puc recomanar de bona fe a ningú que fundi una empresa d’IA als Estats Units”, escrigué divendres Dean Ball, ex-assessor d’IA del govern Trump.

D’Amazon al Pentàgon

La relació inusualment estreta entre Anthropic i el Pentàgon neix, en bona part, en l’acord de col·laboració que la intel·ligència nord-americana signà amb Amazon l’any 2013, que preparà el terreny perquè el material classificat de l’exèrcit passés a arxivar-se al núvol web d’Amazon. Els anys següents, el gegant tecnològic es consolidà com el soci principal de la intel·ligència nord-americana en matèria de gestió de dades i es va imposar als seus rivals en la pugna pels contractes d’emmagatzematge d’intel·ligència altament classificada.

El 2023 i el 2024, Amazon invertí milers de milions de dòlars en Anthropic, una relació comercial que afavorí que Anthropic esdevingués el soci principal en matèria d’IA del Pentàgon.

Anthropic “és una empresa pionera, i amb un producte de qualitat”, afirma una font familiaritzada amb la integració de la IA a les operacions internes de l’exèrcit dels Estats Units, que accedeix a parlar amb The Washington Post a condició d’anonimat per tractar qüestions confidencials relacionades amb la seguretat nacional.

D’ençà que començà a integrar la tecnologia a les operacions internes, segons que afirmà Anthropic dijous, el Pentàgon ha fet servir Claude per dur a terme operacions de guerra cibernètica i també per analitzar intel·ligència militar i planificar operacions. L’empresa ha intensificat la col·laboració amb el govern dels Estats Units d’ençà que Trump tornà a la presidència, un càrrec en què ha promogut la integració de la IA en tots els àmbits de l’administració pública. El juliol de l’any passat, Anthropic signà un contracte de dos-cents milions de dòlars amb el Departament de Defensa; el mes següent, l’empresa arribà a un acord amb la Casa Blanca per a oferir la seva tecnologia als departaments no militars del govern per un preu simbòlic d’un dòlar per departament.

Tanmateix, aquest primer avantatge d’Anthropic s’ha anat difuminant a mesura que competidors com ara Google, OpenAI i xAI han anat tancant acords comercials amb el Pentàgon. La Casa Blanca diu que totes aquestes companyies, al contrari que Anthropic, han acceptat la política del Pentàgon per a usos no classificats, i que xAI també l’ha acceptada per a usos classificats. Cap d’aquestes tres empreses no han respost a les preguntes de The Washington Post per a aquest article.

Una de les grans diferències entre Anthropic i els seus rivals és que l’empresa s’ha mostrat disposada a plantar cara al govern Trump quan ho ha considerat oportú, sense deixar de cortejar el Pentàgon en tot moment.

Amodei, per exemple, ha criticat públicament la decisió del govern Trump de permetre l’exportació de xips d’IA nord-americans a la Xina. Aquest gener proppassat, en declaracions a la cimera de Davos, comparà la decisió amb “vendre armes nuclears a Corea del Nord”. Després de reunir-se amb Amodei aquest febrer proppassat al Capitoli, la senadora demòcrata Elizabeth Warren va dir que presentaria un projecte llei per a limitar dràsticament les exportacions de xips d’IA nord-americans a la Xina. Anthropic també ha contractat uns quants ex-alts càrrecs del govern Biden aquests darrers mesos.

“El govern [Trump] vol que tothom n’acati les demandes, però [Amodei] no cedirà”, diu un inversor especialitzat en tecnologia de defensa, que accedeix a parlar amb The Washington Post a condició d’anonimat per evitar entrar en conflicte amb cap de les parts.

Aquest darrer any, Anthropic ha provat repetidament de rebaixar tensions amb el govern Trump. L’empresa s’ha fet més present a Washington i ha contractat un antic assessor del secretari d’Estat, Marco Rubio, segons el grup de transparència Open Secrets. Aquest mes, l’empresa anuncià que incorporaria a la seva junta directiva Chris Liddell, un ex-executiu del sector tecnològic que formà part del primer govern Trump.

“Una vegada per totes”

Els experts expliquen que el rerefons de la picabaralla entre el Pentàgon i Anthropic és més filosòfic que no pas tècnic, i afegeixen que la Casa Blanca està decidida a desempallegar-se de l’empresa, per més que l’exèrcit en faci servir com més va més els serveis.

“La idea és desfer-se d’Anthropic una vegada per totes”, diu una font amb coneixement de la col·laboració entre l’exèrcit nord-americà i les empreses d’IA. L’enfrontament entre el Pentàgon i Anthropic, afegeix, ofereix l’oportunitat ideal per a tallar aquest vincle de soca-rel.

El Pentàgon ha promès respectar certs protocols de seguretat quant a l’ús d’armament autònom amb IA. Tant els Estats Units com França, el Regne Unit i la Xina s’han compromès a exigir la participació d’un ésser humà en el procés de presa de decisions sobre el desplegament d’armes nuclears. En declaracions a The Washington Post, un portaveu del Pentàgon diu que el govern Trump manté aquest compromís.

“La política del departament continua essent que hi ha d’haver un humà involucrat en qualsevol decisió sobre l’ús d’armes nuclears”, explica un alt funcionari de Defensa. “No tenim cap intenció de delegar aquesta decisió a la IA”, afegeix.

Però fins i tot aquest principi continua deixant molt de marge d’influència a la intel·ligència artificial en el procés de presa decisions sobre el desplegament d’armes nuclears. En un joc de guerra nuclear executat fa poc a King’s College, a Londres, molts dels principals models de llenguatge grans –incloent-hi les darreres versions de ChatGPT, Claude i Gemini– s’acabaren decantant per respondre a atacs enemics amb armes nuclears. Paul Dean, vice-president del programa nuclear de l’ONG Nuclear Threat Initiative, explica que la propensió de la IA per a l’ús d’armes nuclears podria acabar influint en el procés de presa de decisions dels humans encarregats d’ordenar un hipotètic atac nuclear, encara que la IA es mantingui al marge de la tria final.

“No es tracta simplement de garantir que hi hagi un ésser humà en el procés de deliberació”, diu Dean. “La pregunta és: fins a quin punt pot influir la IA en la presa de decisions humanes?”

“El Pentàgon no confia en Anthropic com a proveïdor fiable, i a Anthropic li fa por que el govern faci un ús indegut de la tecnologia”, explica Michael C. Horowitz, director de la Universitat de Pennsilvània que supervisà la política d’IA de l’exèrcit nord-americà durant el govern Biden.

Claude ja s’empra extensament al Departament de Defensa dels Estats Units, cosa que implica que el canvi a un proveïdor rival podria ser molt costós i complex d’un punt de vista tècnic. Representants del Departament de Defensa han insinuat que el govern nord-americà podria obligar Anthropic a compartir els seus sistemes amb el Pentàgon, però els experts no es posen d’acord sobre la legalitat d’aquesta mesura.

Qüestions jurídiques a banda, obligar una companyia a compartir els seus sistemes amb el govern faria saltar les alarmes a Silicon Valley, perquè atorgaria al Pentàgon la potestat d’apropiar-se de qualsevol innovació tecnològica que li interessés, fins i tot sense el consentiment de l’empresa responsable.

Katie Sweeten, que en el passat exercí d’enllaç entre el Pentàgon i el Departament de Justícia dels Estats Units, explica que això seria un punt d’inflexió per al sector tecnològic nord-americà. “Parlem d’una opció nuclear, literalment. Si fos una gran tecnològica, estaria enormement preocupada per aquesta possibilitat”, sentencia.

Continguts només per a subscriptors

Aquesta notícia només és visible per als membres de la comunitat de VilaWeb fins el dia 02.03.2026 a les 01:50 hores, que s'obrirà per a tothom. Si encara no en sou subscriptor cliqueu al botó següent

Recomanem

Fer-me'n subscriptor