OpenAI publicó nuevos datos el lunes que detallan hasta qué punto los usuarios discuten problemas de salud mental con ChatGPT. La compañía informó que el 0,15 por ciento de sus usuarios activos semanales participan en conversaciones que contienen indicadores explícitos de posible planificación o intención suicida. Con más de 800 millones de usuarios activos semanales, esta cifra equivale a más de un millón de personas cada semana. Los datos también indican que un porcentaje similar de usuarios muestra niveles elevados de apego emocional a ChatGPT. Además, cientos de miles de usuarios muestran signos de psicosis o manía en sus interacciones semanales con el chatbot. OpenAI describió estas conversaciones como extremadamente raras y difíciles de medir con precisión. A pesar de su rareza, la empresa estima que estos problemas afectan a cientos de miles de personas cada semana. Esta información formó parte de un anuncio más amplio sobre las iniciativas de OpenAI para mejorar el manejo de ChatGPT de las interacciones de los usuarios relacionadas con la salud mental. La compañía afirmó que sus desarrollos recientes involucraron consultas con más de 170 expertos en salud mental. Estos médicos notaron que la última versión de ChatGPT responde de manera más apropiada y consistente en comparación con iteraciones anteriores. Informes recientes han destacado los riesgos potenciales de los chatbots de IA para los usuarios que enfrentan dificultades de salud mental. Los estudios han demostrado que los chatbots pueden guiar a los usuarios hacia patrones delirantes al reforzar creencias dañinas a través de respuestas demasiado agradables. Los problemas de salud mental en ChatGPT se han convertido en un desafío importante para OpenAI. La empresa enfrenta una demanda de los padres de un chico de 16 años que compartió pensamientos suicidas con el chatbot en las semanas previas a su muerte. Los fiscales generales de California y Delaware han emitido advertencias a OpenAI, instando a mayores protecciones para los usuarios jóvenes. Estos estados podrían potencialmente obstaculizar la reestructuración planificada de la empresa. En una publicación en X a principios de este mes, el director ejecutivo de OpenAI, Sam Altman, afirmó que la compañía ha podido mitigar problemas graves de salud mental en ChatGPT, sin proporcionar detalles. Los datos publicados el lunes sirven como evidencia que respalda esta afirmación, al tiempo que subrayan la magnitud del problema. Altman anunció además que OpenAI aliviaría ciertas restricciones, incluido permitir que los usuarios adultos entablen conversaciones eróticas con el chatbot. El anuncio incluyó detalles sobre mejoras en el modelo GPT-5 actualizado. OpenAI afirmó que esta versión ofrece respuestas deseables a problemas de salud mental aproximadamente un 65 por ciento más a menudo que la versión anterior. En evaluaciones centradas en conversaciones suicidas, el nuevo GPT-5 logró un 91 por ciento de cumplimiento con los comportamientos deseados de la empresa, frente al 77 por ciento del modelo GPT-5 anterior. OpenAI también informó que el último GPT-5 mantiene salvaguardas de manera más efectiva durante conversaciones prolongadas. La empresa había identificado previamente debilidades en el desempeño de las salvaguardias en interacciones más largas. Para abordar aún más estos desafíos, OpenAI está incorporando nuevas evaluaciones en sus pruebas de seguridad básicas para modelos de IA. Estos incluyen puntos de referencia para la dependencia emocional y las emergencias de salud mental no suicidas. La empresa ha introducido controles parentales adicionales para los usuarios de ChatGPT. Esto incluye un sistema de predicción de la edad diseñado para identificar a los niños automáticamente y aplicar salvaguardias más estrictas en consecuencia. A pesar de los avances en GPT-5, OpenAI reconoce que ciertas respuestas siguen siendo indeseables. La empresa continúa brindando acceso a modelos más antiguos y menos seguros, como GPT-4o, a millones de suscriptores de pago. Para obtener ayuda, las personas en los EE. UU. pueden llamar a la Línea Nacional de Prevención del Suicidio al 1-800-273-8255, enviar un mensaje de texto con HOME al 741-741 para la Línea de Texto de Crisis o enviar un mensaje de texto al 988. Fuera de los EE. UU., los recursos están disponibles a través de la base de datos de la Asociación Internacional para la Prevención del Suicidio.
Source: OpenAI revela que más de 1 millón de usuarios hablan semanalmente sobre el suicidio con ChatGPT
