← Volver al blog
IA4 min

El gobierno de Trump empuja a los bancos a usar IA de Anthropic mientras los llama riesgo nacional. La hipocresía del poder.

El Departamento de Defensa de EE.UU. tilda a Anthropic de riesgo para la cadena de suministro. Y días después, sus funcionarios animan a los bancos a usar su IA.

Jordi Segura Pons
Jordi Segura Pons
13 de abril de 2026

Hace unos días leí algo que me hizo releer el titular tres veces para asegurarme de que no era una errata.

El Departamento de Defensa de Estados Unidos declara a Anthropic —la empresa detrás de Claude, uno de los modelos de IA más potentes del mundo— como un riesgo para la cadena de suministro nacional. Y casi al mismo tiempo, funcionarios del gobierno Trump están, según TechCrunch, animando activamente a los bancos a testear Mythos, el modelo financiero de Anthropic.

No me lo estoy inventando. Es lo que hay.


Esto no es un error. Es el sistema funcionando exactamente como está diseñado.

Lo primero que pensé fue: alguien se ha equivocado. Fallo de comunicación interna. Mano derecha que no sabe lo que hace la izquierda.

Pero cuanto más lo pienso, más creo que esto no es un bug. Es un feature.

Los gobiernos llevan décadas haciendo exactamente esto con la tecnología: demonizarla en público y adoptarla en privado. Lo hicieron con el cifrado. Lo hicieron con las redes sociales. Y ahora lo están haciendo con la IA.

La narrativa del "riesgo nacional" sirve para dos cosas: para controlar quién accede a la tecnología y para negociar mejores condiciones. Si Anthropic es un riesgo, los reguladores tienen palanca. Pero si los bancos —que mueven billones y tienen más lobby que ningún otro sector— empiezan a depender de su modelo, Anthropic se vuelve demasiado grande para caer.

Es geopolítica tecnológica. Y está pasando delante de nuestros ojos.


Lo que esto significa para el sector financiero (y para todos)

Que los funcionarios de Trump estén empujando a los bancos hacia Mythos específicamente no es casualidad. Los modelos de IA para banca no son como ChatGPT. Necesitan:

  1. Cumplimiento regulatorio estricto — GDPR, Basel III, KYC, AML… La lista es interminable.
  2. Razonamiento sobre riesgo real — No puedes alucinar cuando estás aprobando un crédito de 50 millones.
  3. Explicabilidad — Los reguladores no aceptan "la IA lo dijo". Necesitan el porqué.

Si Anthropic ha construido Mythos para satisfacer esas tres condiciones en el contexto bancario norteamericano, eso tiene un valor enorme. Y el gobierno lo sabe.

Lo que me preocupa —y aquí viene mi opinión que sé que no a todo el mundo le va a gustar— es que estamos normalizando que los gobiernos decidan qué IA usa el sector privado. Hoy son los bancos americanos con Mythos. Mañana puede ser cualquier sector en cualquier país.

Y cuando el Estado tiene esa llave, la innovación siempre pierde.


Por qué deberías prestarle atención a esto aunque no trabajes en banca

Porque esto marca el ritmo para todos.

Lo que pasa en los bancos americanos hoy llega a las empresas europeas en 18 meses. Vi exactamente ese patrón con la IA generativa en marketing: en 2023 las grandes corporaciones de EE.UU. empezaron a integrarla en sus flujos. En 2024 ya era estándar en las medianas empresas españolas.

Cuando la banca —el sector más conservador y regulado del planeta— empieza a testear modelos de IA en producción, la pregunta no es si tu sector lo hará. La pregunta es cuándo y si tú estarás preparado.

Yo llevo dos años diciéndolo en cada formación que doy, en cada uno de los 32 países donde hemos formado equipos con CenteIA Education: la IA no va a quitarte el trabajo, pero alguien que sepa usar IA sí lo va a hacer.

Esta noticia no cambia esa ecuación. La acelera.


Así que mientras Trump y el Pentágono se pelean con Anthropic en público y se dan la mano en privado, tú tienes una decisión que tomar.

Puedes seguir viendo cómo otros —gobiernos, bancos, corporaciones— deciden cómo se integra la IA en el mundo.

O puedes entender cómo funciona, aprender a usarla, y estar en el lado que da las cartas en lugar del que las recibe.

Eso es exactamente lo que hacemos en CenteIA Education. No teoría. No hype. Formación real, con casos reales, para gente que quiere resultados reales.

El momento de prepararse no es cuando todo el mundo ya lo esté haciendo.

Es ahora.

¿Te ha resultado útil?

Sígueme en LinkedIn o Instagram para más contenido sobre IA.