ChatGPT Salud: entre interrogantes y desafíos

  • Opinión
Alfredo-Zurdo-2025.jpg

El lanzamiento de ChatGPT Salud marca un punto de inflexión en la relación entre inteligencia artificial y atención médica: una herramienta prometedora que, al mismo tiempo, plantea dilemas urgentes sobre privacidad.

Por Alfredo Zurdo, Head of Digital Change de Entelgy

 

OpenAI acaba de lanzar ChatGPT Salud en Estados Unidos, y para muchos, puede que esto se trate de un gran avance y aplaudan la innovación, pero para otros abre un debate lleno de preguntas sin respuestas claras.

Más de 230 millones de personas en todo el mundo consultan a ChatGPT sobre temas de salud y bienestar cada semana. En este contexto, OpenAI  ha decidido aprovechar esa demanda masiva y convertirla en producto.

Chat GPT Salud es una herramienta de inteligencia artificial especializada lanzada por OpenAI en enero de 2026, diseñada para ofrecer información de bienestar, analizar datos clínicos y conectar con aplicaciones de salud. Tiene como objetivo complementar la atención médica, proporcionando resúmenes del historial médico, síntomas y consejos personalizados bajo estrictos controles de privacidad.

Por ahora, ChatGPT Salud solo estará disponible en Estados Unidos, dejando a Europa y otros países fuera del radar. Esto vuelve a abrir un debate sobre la protección de datos y competitividad tecnológica: ¿podría el exceso de regulación ralentizar a Europa frente a Estados Unidos o incluso China?  Mientras que los estadounidenses accederán a una herramienta con cifrado específico y aislamiento diseñado para mantener las conversaciones de salud protegidas y compartimentadas, los europeos usarán la versión estándar sin medidas adicionales. No solo hay riesgo de exclusión, sino también de quedarse atrás en la carrera tecnológica.

La plataforma contó con la colaboración de 260 médicos de 60 países, y asegura cifrado de datos y separación de información sensible. Esto es crucial para temas delicados como la salud mental: más de un millón de usuarios han expresado intenciones suicidas al chatbot, y cientos de miles muestran señales de trastornos graves como ansiedad o dependencia. A estos datos se suman demandas por posibles casos de negligencia, recordándonos que las conversaciones con IA pueden tener consecuencias reales. ChatGPT Salud permite integrar historial médico y aplicaciones de bienestar, ofreciendo un trato personalizado, pero ¿podrá detectar si alguien atraviesa una crisis y brindar apoyo emocional?

La confidencialidad es otro desafío. La relación médico-paciente está protegida por códigos éticos y leyes como HIPAA, pero ChatGPT Salud se basa en políticas internas que pueden cambiar. Las “protecciones adicionales” no sustituyen el cuidado profesional, y subir datos personales a la plataforma plantea dudas sobre seguridad y responsabilidad.

El contexto explica en parte su adopción. En Estados Unidos, las barreras del sistema sanitario dificultan el acceso rápido a la atención. Una herramienta que conecte historial médico con aplicaciones y ofrezca diagnóstico personalizado resulta muy útil. En España, con un sistema público, los problemas son distintos, pero la demanda de respuestas rápidas es la misma. Esto no justifica la adopción acrítica, pero contextualiza su popularidad.

La tecnología ya está aquí, y la demanda ciudadana también. El debate no es si la IA entrará en la salud, sino cómo lo hará: bajo qué supervisión, con qué salvaguardas y con qué nivel de consciencia por parte de los usuarios. Este caso ilustra los tres pilares en tensión: el primero es la seguridad y saber si realmente están protegidos esos datos a largo plazo; en segundo lugar la ética, es decir, qué ocurre con poblaciones vulnerables; y por último, aunque no menos importante, la responsabilidad y saber quién responde si un consejo automatizado falla.

OpenAI aclara que ChatGPT no está destinado para diagnóstico o tratamiento de ninguna condición de salud, pero millones de usuarios actúan según sus necesidades. Esto subraya la importancia del trato humano, incluso cuando la tecnología ofrece análisis avanzados y consejos personalizados.

Aquí es donde la filosofía de Human driven technology de Entelgy resulta clave: la innovación debe apoyar al ser humano, nunca reemplazarlo. La IA es poderosa, pero la empatía, la escucha y el acompañamiento profesional siguen siendo insustituibles. ChatGPT Salud muestra el potencial de la tecnología, pero también evidencia la necesidad de integrar inteligencia artificial con responsabilidad y cuidado humano.