Anthropic se ha convertido en la última empresa de inteligencia artificial (IA) en anunciar un nuevo conjunto de funciones que permite a los usuarios de su plataforma Claude comprender mejor su información de salud.
Bajo una iniciativa llamada Claude para la atención sanitariala compañía dijo que los suscriptores estadounidenses de los planes Claude Pro y Max pueden optar por brindarle a Claude acceso seguro a sus resultados de laboratorio y registros médicos conectándose a HealthEx y Function, con integraciones de Apple Health y Android Health Connect que se implementarán a finales de esta semana a través de sus aplicaciones iOS y Android.
«Cuando está conectado, Claude puede resumir el historial médico de los usuarios, explicar los resultados de las pruebas en un lenguaje sencillo, detectar patrones en las métricas de salud y estado físico y preparar preguntas para las citas», dijo Anthropic. «El objetivo es hacer que las conversaciones de los pacientes con los médicos sean más productivas y ayudar a los usuarios a mantenerse bien informados sobre su salud».
El desarrollo se produce apenas unos días después de que OpenAI presentara ChatGPT Health como una experiencia dedicada para que los usuarios conecten de forma segura registros médicos y aplicaciones de bienestar y obtengan respuestas personalizadas, información de laboratorio, consejos nutricionales e ideas de comidas.
La compañía también señaló que las integraciones son privadas por diseño y los usuarios pueden elegir explícitamente el tipo de información que desean compartir con Claude y desconectar o editar los permisos de Claude en cualquier momento. Al igual que OpenAI, los datos de salud no se utilizan para entrenar sus modelos.
La expansión se produce en medio de un creciente escrutinio sobre si los sistemas de inteligencia artificial pueden evitar ofrecer orientación dañina o peligrosa. Recientemente, Google intervino para eliminar algunos de sus resúmenes de IA después de que se descubrió que proporcionaban información de salud inexacta. Tanto OpenAI como Anthropic han enfatizado que sus ofertas de IA pueden cometer errores y no sustituyen el asesoramiento profesional de atención médica.
En la Política de uso aceptable, Anthropic señala que un profesional calificado en el campo debe revisar los resultados generados «antes de su difusión o finalización» en casos de uso de alto riesgo relacionados con decisiones de atención médica, diagnóstico médico, atención al paciente, terapia, salud mental u otra orientación médica.
«Claude está diseñado para incluir descargos de responsabilidad contextuales, reconocer su incertidumbre y dirigir a los usuarios a profesionales de la salud para obtener orientación personalizada», dijo Anthropic.