La empresa de inteligencia artificial (IA) OpenAI anunció el miércoles el lanzamiento de ChatGPT Health, un espacio dedicado que permite a los usuarios conversar con el chatbot sobre su salud.
Con ese fin, la experiencia de espacio aislado ofrece a los usuarios la capacidad opcional de conectar de forma segura registros médicos y aplicaciones de bienestar, incluidas Apple Health, Function, MyFitnessPal, Weight Watchers, AllTrails, Instacart y Peloton, para obtener respuestas personalizadas, información sobre pruebas de laboratorio, consejos nutricionales, ideas de comidas personalizadas y clases de entrenamiento sugeridas.
La nueva función se está implementando para usuarios con planes ChatGPT Free, Go, Plus y Pro fuera del Espacio Económico Europeo, Suiza y el Reino Unido.
«ChatGPT Health se basa en los sólidos controles de privacidad, seguridad y datos de ChatGPT con protecciones adicionales en capas diseñadas específicamente para la salud, incluido el cifrado y el aislamiento especialmente diseñados para mantener las conversaciones de salud protegidas y compartimentadas», dijo OpenAI en un comunicado.
Al afirmar que más de 230 millones de personas en todo el mundo hacen preguntas relacionadas con la salud y el bienestar en la plataforma cada semana, OpenAI enfatizó que la herramienta está diseñada para respaldar la atención médica, no para reemplazarla ni para usarse como sustituto del diagnóstico o tratamiento.
La compañía también destacó las diversas características de privacidad y seguridad integradas en la experiencia de Salud:
- Health opera en silo con privacidad mejorada y su propia memoria para salvaguardar datos confidenciales mediante cifrado y aislamiento «específicamente diseñados».
- Las conversaciones en salud no se utilizan para entrenar los modelos básicos de OpenAI
- A los usuarios que intentan tener una conversación relacionada con la salud en ChatGPT se les solicita que cambien a Salud para obtener protecciones adicionales.
- La información y los recuerdos de salud no se utilizan para contextualizar chats que no sean de salud.
- Las conversaciones fuera de Salud no pueden acceder a archivos, conversaciones o recuerdos creados dentro de Salud
- Las aplicaciones solo pueden conectarse con los datos de salud de los usuarios con su permiso explícito, incluso si ya están conectados a ChatGPT para conversaciones fuera de Salud.
- Todas las aplicaciones disponibles en Salud deben cumplir con los requisitos de privacidad y seguridad de OpenAI, como recopilar solo los datos mínimos necesarios, y someterse a una revisión de seguridad adicional para que se incluyan en Salud.
Además, OpenAI señaló que ha evaluado el modelo que impulsa la salud frente a los estándares clínicos utilizando HealthBench, un punto de referencia que la compañía reveló en mayo de 2025 como una forma de medir mejor las capacidades de los sistemas de inteligencia artificial para la salud, poniendo en foco la seguridad, la claridad y la intensificación de la atención.
«Este enfoque basado en evaluaciones ayuda a garantizar que el modelo funcione bien en las tareas con las que las personas realmente necesitan ayuda, incluida la explicación de los resultados de laboratorio en un lenguaje accesible, la preparación de preguntas para una cita, la interpretación de datos de dispositivos portátiles y aplicaciones de bienestar y el resumen de instrucciones de cuidado», agregó.
El anuncio de OpenAI sigue a una investigación de The Guardian que encontró que Google AI Overviews proporcionaba información de salud falsa y engañosa. OpenAI y Character.AI también se enfrentan a varias demandas que afirman que sus herramientas llevaron a las personas al suicidio y a delirios dañinos después de confiar en ellas. Un informe publicado por SFGate a principios de esta semana detalló cómo un joven de 19 años murió de una sobredosis de drogas después de confiar en ChatGPT para recibir asesoramiento médico.