Hace unos meses estaba dando una formación a directivos de una empresa del Fortune 500 en Londres. Al terminar, uno de ellos me paró en privado y me dijo: "Jordi, nosotros ya usamos IA internamente, pero oficialmente no podemos decirlo."
Me quedé sin palabras. Y eso que llevo años viendo cosas.
Hoy me he levantado con una noticia que va exactamente en esa línea, pero multiplicada por mil: la NSA —sí, la Agencia de Seguridad Nacional de Estados Unidos, los espías más sofisticados del planeta— estaría usando Mythos, el modelo restringido de Anthropic, a pesar de que el Pentágono y Anthropic están en medio de una disputa institucional.
Vamos a desmenuzar lo que esto significa de verdad.
El dato no es la noticia. La implicación sí.
Que una agencia de inteligencia use tecnología "no autorizada" no es nuevo. Lo que sí es nuevo —y brutalmente relevante— es que estamos hablando de IA de frontera, de modelos que tienen acceso a capacidades que ninguna administración pública todavía entiende del todo.
La NSA no esperó a que los políticos resolvieran sus peleas internas. Siguió adelante.
Y eso me dice algo muy claro: la IA ya no es una herramienta del futuro que hay que planificar. Es una realidad operativa que ocurre ahora mismo, con o sin tu permiso.
Tres cosas que esto me confirma
Primero: la burocracia siempre llega tarde a la revolución.
Lo veo constantemente en las empresas con las que trabajo desde CenteIA Education. Los comités de aprobación tardan seis meses en aprobar una herramienta de IA. Mientras tanto, los equipos ya la están usando por libre en sus portátiles personales. Igual que la NSA. La diferencia es que en una empresa, eso genera caos. En una agencia de inteligencia, genera ventaja estratégica.
Segundo: el control de la IA ya no es solo una cuestión técnica. Es una cuestión de poder.
Que Anthropic tenga un modelo llamado "Mythos" con acceso restringido y que aun así esté siendo utilizado por una de las agencias más poderosas del mundo dice mucho sobre quién tiene realmente el control de esta tecnología. No son los gobiernos. No son los parlamentos. Son las empresas privadas que construyen los modelos y, de forma extraoficial, las instituciones que los adoptan antes que nadie.
Esto no es un juicio moral. Es un análisis de poder.
Tercero: si la NSA lo hace, tu competencia también.
Este es el mensaje que le doy a cualquier empresario o profesional que todavía está "evaluando si implementar IA". Mientras tú evalúas, otros actúan. No te estoy diciendo que hagas las cosas a escondidas —te estoy diciendo que la velocidad de adopción marca la diferencia entre liderar y quedarte obsoleto.
He formado a más de 500.000 personas en 32 países. El patrón que veo repetirse es siempre el mismo: los que esperan al consenso llegan tarde. Los que experimentan, aprenden y ajustan son los que ganan.
El fondo del asunto
Esta historia de la NSA y Anthropic no es solo tecnología. Es un síntoma de algo más profundo: vivimos en un momento donde las reglas todavía no existen, y los más audaces están escribiendo las nuevas normas.
Los modelos de IA como Mythos no son neutros. Tienen capacidades, límites y sesgos. El hecho de que se estén usando en contextos de inteligencia nacional sin un marco regulatorio claro debería preocuparnos como ciudadanos. Pero como profesionales, también debería despertarnos.
La pregunta no es si tu sector va a ser transformado por la IA.
La pregunta es si vas a ser tú quien lidere esa transformación, o si vas a enterarte de que ya ocurrió cuando leas la noticia.
Recuerdo un tatuaje que tengo en el brazo: memento mori. Recuerda que morirás. Lo llevo como recordatorio de que el tiempo no espera.
La IA tampoco.
Si quieres empezar a entender de verdad qué herramientas como Mythos —o sus equivalentes accesibles— pueden hacer por ti o por tu equipo, en CenteIA Education llevamos dos años ayudando a personas y organizaciones en 32 países a no quedarse mirando desde la orilla. El momento de subirse no fue ayer. Pero sigue siendo hoy.
