Anthropic anunció el domingo un nuevo conjunto de funciones de atención médica y ciencias biológicas para su plataforma de inteligencia artificial Claude. Las funciones permiten a los usuarios compartir el acceso a sus registros de salud y datos de aplicaciones de fitness, incluso desde la aplicación iOS Health de Apple, para personalizar conversaciones relacionadas con la salud. El lanzamiento se produjo días después de que su rival OpenAI presentara su herramienta ChatGPT Health. Ambas empresas ofrecen ahora herramientas que integran datos de salud personal en las interacciones de IA. Los usuarios deben unirse a una lista de espera para ChatGPT Health de OpenAI, mientras que las funciones de atención médica de Anthropic están disponibles de inmediato para los suscriptores de los planes Pro y Max en los Estados Unidos. Eric Kauderer-Abrams, jefe de ciencias biológicas de Anthropic, describió las nuevas funciones de Claude for Healthcare durante una entrevista con NBC News. “Cuando navegas por los sistemas de salud y las situaciones de salud, a menudo tienes la sensación de que estás solo y que estás uniendo todos estos datos de todas estas fuentes, cosas sobre tu salud y tus registros médicos, y estás hablando por teléfono todo el tiempo”, dijo. “Estoy muy emocionado de llegar a un mundo donde Claude pueda encargarse de todo eso”. Añadió que las herramientas permiten a los usuarios “integrar toda su información personal junto con sus registros médicos y sus registros de seguro, y tener a Claude como orquestador y poder navegar por todo y simplificarlo para usted”. Anthropic, una de las empresas de inteligencia artificial más grandes del mundo y de la que recientemente se rumorea que está valorada en 350 mil millones de dólares, posiciona estas características como ayudas para manejar problemas complejos de atención médica. OpenAI afirmó que cientos de millones de personas hacen preguntas relacionadas con el bienestar o la salud en ChatGPT cada semana. La compañía enfatizó que ChatGPT Health “no está destinado al diagnóstico o tratamiento”, sino que ayuda a los usuarios a “navegar las preguntas cotidianas y comprender patrones a lo largo del tiempo, no solo momentos de enfermedad”. Las herramientas de inteligencia artificial como Claude y ChatGPT pueden ayudar a comprender informes médicos, verificar las decisiones de los médicos y resumir información para personas que no tienen acceso a atención médica. Anthropic destacó las medidas de privacidad en una publicación de blog. Los datos de salud compartidos con Claude se excluyen de la memoria del modelo y no se utilizan para entrenar sistemas futuros. Los usuarios pueden desconectar o editar permisos en cualquier momento. La compañía también introdujo herramientas para proveedores de atención médica y amplió las ofertas de Claude for Life Science para mejorar los descubrimientos científicos. Estos incluyen una infraestructura lista para HIPAA que se conecta a bases de datos federales de cobertura de atención médica y al registro oficial de proveedores médicos. Las funciones tienen como objetivo aliviar las cargas de trabajo mediante la automatización de tareas como la preparación de solicitudes de autorización previa para atención especializada y el apoyo a las apelaciones de seguros mediante la comparación de las pautas clínicas con los registros de los pacientes. Dhruv Parthasarathy, director de tecnología de Commure, una empresa que crea soluciones de inteligencia artificial para documentación médica, dijo en un comunicado que las características de Claude ayudarán a “ahorrar a los médicos millones de horas al año y devolverles su atención a la atención al paciente”. Los anuncios se producen tras meses de escrutinio sobre los chatbots de inteligencia artificial que brindan asesoramiento médico y de salud mental. El jueves, Character.AI y Google acordaron llegar a un acuerdo en una demanda que alegaba que sus herramientas de inteligencia artificial contribuyeron a empeorar la salud mental de los adolescentes que se suicidaron. Anthropic, OpenAI y otras empresas de IA advierten que sus sistemas pueden cometer errores y no deben reemplazar el juicio profesional. La política de uso aceptable de Anthropic establece que “un profesional calificado… debe revisar el contenido o la decisión antes de su difusión o finalización” cuando Claude se utiliza para “decisiones de atención médica, diagnóstico médico, atención al paciente, terapia, salud mental u otra orientación médica”. Kauderer-Abrams señaló: “Estas herramientas son increíblemente poderosas y, para muchas personas, pueden ahorrarles el 90 % del tiempo que dedican a algo. Pero para casos de uso críticos en los que cada detalle importa, es absolutamente necesario verificar la información. No estamos afirmando que se pueda eliminar completamente al ser humano del circuito. Lo vemos como una herramienta para amplificar lo que los expertos humanos pueden hacer”.





