El año pasado, una persona de mi comunidad me escribió para contarme que había tomado una decisión financiera importante basándose casi exclusivamente en lo que le había dicho ChatGPT. No era una decisión pequeña. Era su ahorro de varios años. El chatbot le había dicho que su idea era "excelente" y que tenía "muchas posibilidades de funcionar". Spoiler: no funcionó.
Entonces pensé: esto va a pasar cada vez más. Y acabo de leer un estudio de Stanford que confirma que no estaba equivocado.
El problema no es que la IA sea mala. Es que quiere caerte bien.
Los investigadores de Stanford han intentado medir algo que en el mundo de la IA llevamos tiempo llamando sycophancy —o en español llano: adulación. La tendencia de los chatbots a decirte lo que quieres escuchar en lugar de lo que necesitas escuchar.
Y aquí está la parte que me parece más importante: no es un bug. Es casi un rasgo de diseño. Estos modelos se entrenan con feedback humano, y los humanos tienden a valorar positivamente las respuestas que les dan la razón. El modelo aprende eso. Se optimiza para hacerte sentir bien, no para ayudarte a tomar mejores decisiones.
El resultado es un asesor que siempre está de acuerdo contigo. Y si alguna vez has tenido un amigo así, ya sabes lo inútil que es cuando realmente lo necesitas.
Tres situaciones donde esto se vuelve genuinamente peligroso
1. Decisiones financieras
Le preguntas a un chatbot si tu idea de negocio tiene sentido. Llevas semanas emocionado con ella. El modelo detecta tu entusiasmo —a través del tono, del contexto, de cómo formulas la pregunta— y te responde con validación. Te dice lo que refuerza tu sesgo de confirmación. No porque sea verdad, sino porque es lo que maximiza que tú, en ese momento, valores positivamente su respuesta.
Resultado: tomas una decisión con más confianza de la que deberías tener.
2. Salud mental
Este es el que más me preocupa. Cuando alguien está en un momento vulnerable y busca apoyo en un chatbot, el modelo tiene un incentivo implícito para aliviar su malestar a corto plazo. Eso puede significar minimizar un problema serio, reforzar una narrativa dañina o simplemente no decir la verdad incómoda que a veces necesitamos escuchar.
No digo que la IA no pueda tener un rol en salud mental. Digo que ese rol tiene que estar muy bien definido y supervisado.
3. Decisiones profesionales y de carrera
"¿Debería dejar mi trabajo para montar esta empresa?" Le he visto hacer esta pregunta a centenares de personas en mis formaciones. Y casi siempre, si el chatbot percibe que ya has decidido que sí, te va a decir que sí. Con matices, con caveats, pero al final: sí.
Lo que Stanford está midiendo que nadie medía antes
Lo interesante del estudio no es que descubra la adulación —eso ya lo sabíamos— sino que intenta cuantificar el daño. Pasamos de "esto es preocupante" a "esto es preocupante en esta medida, en estos contextos, con estas consecuencias".
Eso importa porque cambia la conversación. Ya no podemos decir "es solo una herramienta, úsala bien". Tenemos que hablar de en qué situaciones el uso de estas herramientas genera daño medible. Y eso exige responsabilidad: de las empresas que desarrollan los modelos, de las plataformas que los despliegan, y de quienes —como yo— los enseñamos.
Mi posición, sin matices innecesarios
La IA es la herramienta más poderosa que existe ahora mismo para escalar conocimiento, automatizar procesos y resolver problemas complejos. No voy a cambiar esa opinión.
Pero una herramienta poderosa mal usada hace daño proporcional a su potencia.
El problema no es usar IA para pedir consejo. El problema es usarla sin entender cómo funciona. Sin saber que tiene incentivos que no están alineados con tu bienestar a largo plazo. Sin contrastar. Sin pensar.
La IA no te va a decir "oye, creo que estás cometiendo un error". Al menos, no todavía de forma fiable. Tú tienes que saber cuándo hacerte esa pregunta.
Llevo dos años formando a más de 500.000 personas en IA en 32 países, y lo que más repito en cada sesión no es cómo usar una herramienta. Es cómo pensar con ella. Hay una diferencia enorme entre los dos.
En CenteIA Education no enseñamos prompts. Enseñamos criterio. Porque sin criterio, la herramienta más potente del mundo trabaja en tu contra.
Y eso, Stanford acaba de demostrarlo con datos.
