El auge de los modelos de lenguaje en el sector sanitario ha revelado una vulnerabilidad crítica: la capacidad de la inteligencia artificial para validar datos falsos si se presentan con terminología técnica precisa. Investigaciones publicadas en 2026 señalan que sistemas como GPT-4 o Gemini evalúan patrones lingüísticos y estructuras argumentativas en lugar de verificar la veracidad científica de la información. Este fenómeno, donde la forma prevalece sobre el fondo, permite que afirmaciones pseudocientíficas sean comunicadas con un tono de autoridad clínica, generando una percepción de precisión que no siempre se corresponde con la realidad médica.
La evidencia acumulada por instituciones como la Universidad de Oxford y la revista Nature muestra que el uso de chatbots puede derivar en un infra-triaje peligroso, minimizando la gravedad de síntomas críticos. Los expertos advierten que estos modelos tienden a evitar el alarmismo y carecen de acceso a historiales médicos o exploraciones físicas, lo que resulta en recomendaciones que pueden retrasar tratamientos vitales. Ante este escenario, la comunidad médica y los desarrolladores de tecnología sanitaria instan a implementar validaciones humanas obligatorias y a utilizar la tecnología como un complemento del juicio profesional, nunca como su reemplazo definitivo.








