![La reputación de OpenAI y la confianza de los usuarios se han visto afectadas por incidentes de seguridad La reputación de OpenAI y la confianza de los usuarios se han visto afectadas por incidentes de seguridad](https://techbriefly.com/wp-content/uploads/2024/07/OpenAI-product-safety-issues.jpg)
OpenAI, la empresa de inteligencia artificial conocida por sus innovaciones revolucionarias, ha vuelto a ser noticia, aunque no por los motivos que desearía. Esta vez, la empresa se enfrenta al escrutinio debido a un par de importantes infracciones de seguridad que han suscitado inquietudes sobre sus prácticas de protección de datos y su marco general de ciberseguridad.
ChatGPT para Mac no es tan seguro como pensabas
El primer incidente gira en torno a la aplicación ChatGPT de OpenAI para usuarios de Mac, que recientemente se descubrió que almacenaba conversaciones de usuarios en un formato no cifrado directamente en dispositivos locales, según El bordeInforme de.
Esto significaba que la información confidencial compartida durante los chats estaba potencialmente expuesta y era accesible a otras aplicaciones o software malicioso.
El desarrollador de Swift, Pedro José Pereira Vieito, sacó a la luz esta vulnerabilidad, lo que llevó a OpenAI a publicar rápidamente una actualización que implementó el cifrado para las conversaciones almacenadas. Sin embargo, el incidente ha puesto de relieve la importancia de contar con medidas de seguridad sólidas incluso en aplicaciones aparentemente inocuas.
La aplicación OpenAI ChatGPT en macOS no está aislada y almacena todas las conversaciones en **texto sin formato** en una ubicación no protegida:
~/Biblioteca/Soporte de aplicaciones/com.openai.chat/conversations-{uuid}/
Básicamente, cualquier otra aplicación o malware puede leer todas tus conversaciones de ChatGPT: imagen.twitter.com/IqtNUOSql7
— Pedro José Pereira Vieito (@pvieito) 2 de julio de 2024
El incidente del año pasado persigue al gigante tecnológico
Para agravar los problemas de seguridad, una nueva violación de seguridad ocurrida la primavera pasada ha vuelto a atormentar a OpenAI. Un hacker logró infiltrarse en los sistemas de mensajería interna de la empresa y obtuvo acceso a información confidencial sobre sus operaciones y tecnologías de inteligencia artificial.
Si bien los ejecutivos de OpenAI optaron por no revelar públicamente la violación en ese momento, creyendo que no comprometió los datos de los clientes o socios, el incidente provocó discordia interna.
Algunos empleados, incluido el ex gerente del programa técnico de OpenAI, Leopold Aschenbrenner, han expresado su preocupación por el hecho de que las medidas de seguridad de la empresa son insuficientes para protegerse contra posibles amenazas, en particular de adversarios extranjeros que buscan robar valiosa tecnología de inteligencia artificial.
![La reputación de OpenAI y la confianza de los usuarios se han visto sacudidas por incidentes de seguridad 2 Problemas de seguridad de los productos OpenAI](https://techbriefly.com/wp-content/uploads/2024/07/OpenAI-product-safety-issues_1.jpg)
¿Seguridad? ¡No, gracias!
Estos dos incidentes han puesto de relieve un debate más amplio sobre el compromiso de OpenAI con la seguridad y la transparencia. Si bien la empresa ha tomado medidas para abordar las vulnerabilidades inmediatas, aún quedan dudas sobre sus procesos internos y el grado en que prioriza la seguridad en el desarrollo y la implementación de aplicaciones de IA. Los posibles riesgos geopolíticos asociados con las tecnologías avanzadas de IA complican aún más la cuestión, ya que el temor al robo de propiedad intelectual por parte de naciones extranjeras es cada vez mayor.
La respuesta de OpenAI a estos desafíos ha sido doble.
En primer lugar, ha creado un Comité de Seguridad y Protección para evaluar y mitigar los riesgos asociados a las tecnologías futuras. Este comité cuenta con figuras destacadas como Paul Nakasone, exgeneral del ejército y experto en ciberseguridad. En segundo lugar, la empresa ha reafirmado su compromiso de invertir en la protección de sus tecnologías, enfatizando que estos esfuerzos son anteriores a los recientes incidentes y están en constante evolución.
La reputación de OpenAI y la confianza de sus usuarios dependen de su capacidad para aprender de estas experiencias y garantizar que la seguridad siga siendo una prioridad máxima mientras continúa sorprendiéndonos innovación tras innovación en el desarrollo de tecnologías de IA.
Crédito de la imagen destacada:Jonathan Kemper/Unsplash