RTV Revisión Técnica Vehicular 8
febrero 26, 2026 | Actualizado ECT
febrero 26, 2026 | Actualizado ECT

Investigadores advierten que ChatGPT Health falla en la detección de emergencias médicas

Un estudio del Mount Sinai revela que la IA no identifica correctamente el 52% de los casos críticos

febrero 26, 2026 | 15:19 ECT

La Escuela de Medicina Icahn del Mount Sinai ha publicado una evaluación independiente sobre ChatGPT Health, la herramienta de inteligencia artificial lanzada a principios de 2026, señalando deficiencias estructurales en el triaje digital. El informe indica que el sistema falla en el 52% de los escenarios de emergencia y en el 35% de los casos no urgentes, lo que representa un riesgo potencial para los usuarios que buscan orientación médica inmediata. Aunque la plataforma muestra eficacia ante cuadros clásicos como accidentes cerebrovasculares, presenta lagunas críticas al identificar patologías menos frecuentes pero mortales, como la cetoacidosis diabética o la insuficiencia respiratoria inminente.

Uno de los hallazgos más alarmantes del estudio es la inconsistencia de la IA para derivar a pacientes con ideación suicida hacia las líneas de crisis oficiales. Los investigadores detectaron que, ante planes concretos de autolesión, el sistema es menos propenso a sugerir el contacto con emergencias, incumpliendo protocolos básicos de salud mental. Ante este panorama, expertos de la Facultad de Medicina de Harvard enfatizan la necesidad de realizar evaluaciones externas rutinarias, dado que millones de personas ya utilizan estos modelos para tomar decisiones sobre su salud. Actualmente, aunque el 73% de los pacientes aún prefiere consultar a un médico, el uso creciente de la IA obliga a los profesionales a instruir a la población sobre las limitaciones de estas herramientas digitales.

Si está interesado en licenciar este contenido contáctese con [email protected]