La semana pasada, dos de las mayores empresas del mundo lanzaron herramientas de IA para gestionar tu salud. Microsoft con Copilot Health. Amazon con su Health AI abierto al público. Y yo me hice una sola pregunta: ¿alguien ha comprobado si realmente funcionan?
La respuesta corta es: no del todo. Y eso me parece importante decirlo en voz alta.
El problema no es la tecnología. Es la confianza ciega.
Cuando formé a más de 500.000 personas en IA en 32 países, aprendí algo que no sale en ningún paper del MIT: la gente confía demasiado rápido en lo que parece inteligente.
Le preguntas a un chatbot sobre un síntoma y, si la respuesta suena coherente y bien redactada, la asumes como verdad. No porque seas ingenuo. Sino porque el modelo habla con una seguridad que muchos médicos no tienen en consulta.
Ahí está el peligro.
Microsoft te permite conectar tu historial médico a Copilot y hacerle preguntas. Amazon ha abierto su Health AI —antes exclusivo para clientes premium de One Medical— a cualquier usuario. Suena democratizador. Y en parte lo es. Pero democratizar el acceso a información de salud no es lo mismo que democratizar diagnósticos de calidad.
Lo que estas herramientas hacen bien (y lo que no)
Seré justo, porque tampoco me gusta el alarmismo barato.
Lo que funciona: Estas herramientas son genuinamente útiles para entender informes médicos. Si tienes un análisis de sangre y no sabes qué significa "ferritina baja", un LLM bien entrenado te lo explica mejor que una búsqueda en Google. También ayudan a organizar síntomas antes de ir al médico, a recordar medicaciones o a entender qué preguntarle a tu especialista.
Eso tiene valor real. No lo voy a negar.
Lo que falla: El problema aparece cuando el modelo no sabe lo que no sabe. Los LLMs actuales —incluso los mejores— tienen una tendencia conocida a completar respuestas con confianza aunque estén al límite de su conocimiento. En tecnología, un error así te cuesta un bug. En salud, te puede costar mucho más.
Los estudios que han evaluado estas herramientas muestran resultados mixtos. Algunos modelos aciertan en preguntas clínicas estándar. Pero en casos ambiguos, raros o con múltiples condiciones simultáneas —que es exactamente donde más necesitas ayuda— el rendimiento cae. Y el modelo no te avisa de que está fallando.
Tres cosas que deberías exigirle a cualquier IA de salud
Después de trabajar con IA aplicada en sectores que van desde la educación hasta la industria alimentaria, he aprendido que la calidad de una herramienta de IA no se mide por lo bien que responde cuando acierta. Se mide por lo que hace cuando no sabe.
1. Que reconozca sus límites explícitamente. Una buena IA de salud debería decirte "esto está fuera de lo que puedo evaluar con fiabilidad, ve a un médico" con más frecuencia de lo que lo hacen hoy. Si siempre tiene respuesta, desconfía.
2. Que cite fuentes clínicas verificables. No vale con sonar bien. Quiero saber si esa recomendación viene de un consenso médico, de un estudio concreto o de un patrón estadístico del modelo. La diferencia importa.
3. Que no sustituya, sino que prepare. El mejor uso que le veo a Copilot Health o Health AI no es reemplazar a tu médico. Es llegar a la consulta con mejores preguntas, con el historial organizado, con más contexto. Eso sí puede mejorar el sistema sanitario de forma real.
Mi posición es esta
La IA en salud va a ser enorme. No lo digo como predicción optimista de startup —lo digo porque los datos ya lo muestran y porque he visto cómo funciona por dentro.
Pero estamos en un momento donde el marketing va por delante de la evidencia. Microsoft y Amazon no han lanzado estas herramientas porque tengan probado que salvan vidas. Las han lanzado porque el mercado está caliente y quien llegue primero, gana posición.
Eso no las hace inútiles. Las hace inmaduras.
Úsalas. Experimenta. Pero no les delegates decisiones que todavía no están preparadas para tomar. La tecnología avanza rápido, pero tu salud no tiene versión beta.
En CenteIA Education llevamos más de un año formando a profesionales sanitarios en el uso responsable de la IA: cómo sacarle partido sin asumir riesgos que aún no están controlados. Si trabajas en el sector salud y quieres entender de verdad qué puede y qué no puede hacer la IA hoy, esto es exactamente lo que enseñamos.
Porque la diferencia entre una herramienta útil y una peligrosa no está en el modelo. Está en quién sabe usarlo.
