RTV Revisión Técnica Vehicular 8
marzo 15, 2026 | Actualizado ECT
marzo 15, 2026 | Actualizado ECT

Modelos de inteligencia artificial en salud priorizan el formato clínico sobre la evidencia científica

Estudios recientes advierten sobre el riesgo de desinformación médica generada por sistemas que imitan la autoridad técnica

marzo 15, 2026 | 15:25 ECT

El auge de los modelos de lenguaje en el sector sanitario ha revelado una vulnerabilidad crítica: la capacidad de la inteligencia artificial para validar datos falsos si se presentan con terminología técnica precisa. Investigaciones publicadas en 2026 señalan que sistemas como GPT-4 o Gemini evalúan patrones lingüísticos y estructuras argumentativas en lugar de verificar la veracidad científica de la información. Este fenómeno, donde la forma prevalece sobre el fondo, permite que afirmaciones pseudocientíficas sean comunicadas con un tono de autoridad clínica, generando una percepción de precisión que no siempre se corresponde con la realidad médica.

La evidencia acumulada por instituciones como la Universidad de Oxford y la revista Nature muestra que el uso de chatbots puede derivar en un infra-triaje peligroso, minimizando la gravedad de síntomas críticos. Los expertos advierten que estos modelos tienden a evitar el alarmismo y carecen de acceso a historiales médicos o exploraciones físicas, lo que resulta en recomendaciones que pueden retrasar tratamientos vitales. Ante este escenario, la comunidad médica y los desarrolladores de tecnología sanitaria instan a implementar validaciones humanas obligatorias y a utilizar la tecnología como un complemento del juicio profesional, nunca como su reemplazo definitivo.

Si está interesado en licenciar este contenido contáctese con [email protected]