Redacción Macronews.- Cada vez más personas recurren a chatbots de inteligencia artificial para resolver dudas médicas, pero especialistas advierten que, aunque estas herramientas pueden ofrecer información personalizada y útil, también implican riesgos que deben considerarse antes de compartir datos de salud o tomar decisiones clínicas basadas únicamente en sus respuestas.
Empresas como OpenAI y Anthropic han desarrollado versiones especializadas para consultas médicas, capaces de analizar historiales clínicos, aplicaciones de bienestar y datos de dispositivos portátiles. No obstante, ambas compañías subrayan que sus modelos de lenguaje no sustituyen la atención profesional y no deben utilizarse para diagnosticar enfermedades.
1. Información más personalizada que una búsqueda en línea
Algunos especialistas consideran que estos sistemas representan una mejora frente a las búsquedas tradicionales en internet. El doctor Robert Wachter, experto en tecnología médica de la Universidad de California en San Francisco, señala que, utilizados de forma responsable, pueden brindar información más específica que una consulta general en buscadores.
Sin embargo, un estudio realizado por la Universidad de Oxford con mil 300 participantes reveló que quienes utilizaron chatbots para evaluar afecciones hipotéticas no tomaron mejores decisiones que quienes buscaron información por su cuenta. El problema no fue necesariamente la capacidad técnica del sistema, sino la interacción y la interpretación de los resultados.
2. Evite la IA ante síntomas graves
Expertos coinciden en que ante síntomas como dolor en el pecho, dificultad para respirar o dolor de cabeza intenso, lo correcto es buscar atención médica inmediata. El doctor Lloyd Minor, decano de la Facultad de Medicina de la Universidad de Stanford, advierte que ninguna decisión médica importante debería basarse únicamente en la respuesta de un modelo de lenguaje.
3. La privacidad no es equivalente a la confidencialidad médica
Uno de los puntos más sensibles es la protección de datos. La información compartida con empresas tecnológicas no está necesariamente amparada por las mismas leyes que protegen la confidencialidad médico-paciente. Aunque OpenAI y Anthropic aseguran que los datos de salud cuentan con protecciones adicionales y no se utilizan para entrenar modelos, los estándares de privacidad no son idénticos a los del sector sanitario.
4. Los chatbots aún presentan limitaciones
Investigaciones recientes indican que estos sistemas pueden identificar correctamente diagnósticos en escenarios escritos hasta en un 95% de los casos, pero enfrentan dificultades en interacciones reales. Los usuarios a menudo omiten datos clave, y los modelos pueden mezclar información correcta con datos inexactos, lo que complica distinguir entre recomendaciones válidas y errores.
5. Buscar una “segunda opinión” digital
Algunos expertos sugieren contrastar respuestas entre diferentes plataformas, como ChatGPT y Gemini, para ganar mayor confianza en la información obtenida. No obstante, esta práctica no sustituye la consulta con un profesional de la salud.
En conclusión, los chatbots de inteligencia artificial pueden ser aliados informativos para comprender resultados médicos o preparar consultas, pero su uso debe estar acompañado de criterio, escepticismo saludable y, sobre todo, supervisión profesional.



















