OpenAI reveló que la violación de datos de ChatGPT fue causada por una debilidad en el código fuente abierta marco en su chatbot, que se rectificó rápidamente y aparentemente con consecuencias mínimas, pero el incidente podría ser un presagio de futuras amenazas para chatbots y usuarios, y IA abierta está tomando precauciones para evitar futuras violaciones de datos en la aplicación.
Cuando ChatGPT y otros chatbots se convirtieron inicialmente en público disponible, el la seguridad cibernética La comunidad estaba preocupada por cómo se puede explotar la tecnología de IA para realizar ataques cibernéticos. Los actores de amenazas no tardaron mucho en descubrir cómo eludir los controles de seguridad y utilizar ChatGPT para escribir código malicioso.
Las mesas parecen haber cambiado. En lugar de emplear ChatGPT para provocar desastres cibernéticos, los atacantes ahora han activado la tecnología en sí. De acuerdo a Semana de la Seguridad, OpenAI, la empresa que creó el chatbot, reveló una violación de datos de ChatGPT en el sistema causada por una debilidad en el marco de código abierto del código. La violación de datos de ChatGPT dejó el servicio fuera de línea hasta que pudo ser reparado.

La popularidad de ChatGPT fue evidente desde el momento en que se lanzó a finales 2022. Todos querían jugar con el chatbot, desde autores hasta profesionales del software. A pesar de sus fallas (parte de su prosa era tosca o plagiada), ChatGPT se convirtió rápidamente en la aplicación para consumidores de más rápido crecimiento en la historia, con más de 100 millones mensuales usuarios por Enero. Dentro de un mes de su lanzamiento, aproximadamente 13 millones de personas usaron la tecnología de IA diariamente. En comparación, Tik Tokotra aplicación muy popular, tardó nueve meses en alcanzar un número de usuarios comparable.
Violación de datos de ChatGPT
Es solo cuestión de tiempo hasta que una aplicación o tecnología popular sea el objetivo de los actores de amenazas. En el caso de la violación de datos de ChatGPT, el exploit fue posible gracias a una falla en el código abierto redis biblioteca. Los usuarios ahora pueden ver el historial de conversaciones de otros usuarios actuales.
De acuerdo a Pesado.AIlas bibliotecas de código abierto se utilizan para “desarrollar interfaces dinámicas mediante el almacenamiento de rutinas y recursos fácilmente accesibles y de uso frecuente, como clases, datos de configuración, documentación, datos de ayuda, plantillas de mensajes, código y subrutinas escritos previamente, especificaciones de tipo y valores .”

Redis es utilizado por OpenAI para almacenar información del usuario para una recuperación y acceso más rápidos. Debido a que miles de colaboradores crean y usan código de fuente abierta, las vulnerabilidades pueden surgir fácilmente y pasar desapercibidas. Debido a que los actores de amenazas son conscientes de esto, los ataques a las bibliotecas de código abierto han aumentado en 742% desde 2019.
El ChatGPT la vulnerabilidad era pequeña en el esquema más amplio de las cosas, y OpenAI corrigió la falla a los pocos días de su descubrimiento. Sin embargo, incluso los incidentes cibernéticos menores pueden causar daños significativos.
Sin embargo, eso fue solo un incidente menor. Los investigadores de violación de datos de ChatGPT profundizaron más y descubrieron que la misma vulnerabilidad probablemente era la culpable de la visibilidad de la información de pago durante unas horas antes de que ChatGPT se desconectara.
“Algunos usuarios podrían ver el nombre y apellido de otro usuario activo, la dirección de correo electrónico, la dirección de pago, los últimos cuatro dígitos de un número de tarjeta de crédito (solo) y la fecha de vencimiento de la tarjeta de crédito”. “Nunca se expusieron números completos de tarjetas de crédito”, dijo OpenAI en un comunicado sobre el incidente.
Chatbots, IA, ciberseguridad y violación de datos de ChatGPT
La violación de datos de ChatGPT se rectificó rápidamente y aparentemente con consecuencias mínimas, y los clientes de pago afectados representaron menos de 1% de sus usuarios. Sin embargo, el incidente podría ser un presagio de futuras amenazas para los chatbots y los usuarios.

Ya existen problemas de privacidad con respecto al uso de chatbots. Mark McCreary, copresidente de Zorro Rothschild LLP práctica de privacidad y seguridad de datos, dijo CNN que ChatGPT y los chatbots son análogos a la caja negra de un avión. La tecnología de IA acumula cantidades masivas de datos y luego utiliza esos datos para producir respuestas a consultas y avisos. Además, cualquier cosa en la memoria del chatbot queda disponible para otros usuarios.
Los chatbots, por ejemplo, pueden capturar las notas de un solo usuario sobre cualquier tema y luego resumir o buscar más detalles. Sin embargo, si esas notas contienen datos confidenciales, como la propiedad intelectual de una organización o información confidencial del cliente, se agregan a la chatbot biblioteca. El usuario ha perdido el control de la información.
Las restricciones de IA se están endureciendo
Algunas empresas y países enteros están tomando medidas enérgicas contra los problemas de privacidad. JPMorgan Perseguir, por ejemplo, ha limitado el uso de ChatGPT por parte de sus trabajadores debido a las restricciones de la empresa sobre el software y las aplicaciones de terceros, pero también existen preocupaciones sobre la seguridad de la información financiera ingresada en el chatbot. E Italia citó la protección de datos de los ciudadanos como la razón para bloquear temporalmente el programa en todo el país. Los funcionarios afirmaron que la preocupación proviene de RGPD cumplimiento.

También se espera que los actores de amenazas empleen ChatGPT para enviar mensajes sofisticados y suplantación de identidad realista correos electrónicosde acuerdo a expertos. El lenguaje deficiente y la construcción de frases extrañas ya no son indicadores de un esquema de phishing. Los chatbots ahora emularán a los hablantes naturales mediante el envío de mensajes personalizados. ChatGPT es capaz de realizar una traducción de idiomas impecable, lo que cambiará las reglas del juego para los enemigos de otros países.
El uso de IA para producir información errónea y campañas de conspiración es una técnica igualmente dañina. Las consecuencias de esta práctica pueden extenderse más allá de los peligros cibernéticos. Los investigadores utilizaron ChatGPT para crear un artículo de opinión que se pareciera a todo lo visto en infoguerras u otros sitios web conocidos que promueven teorías de conspiración.
Las amenazas están siendo abordadas por OpenAI
El desarrollo de la filtración de datos de chatbot traerá nuevos riesgos cibernéticos, ya sea a través de habilidades lingüísticas más complejas o su popularidad. Como resultado, la tecnología es un objetivo principal para un vector de ataque. Con ese objetivo, OpenAI está tomando precauciones para evitar futuras violaciones de datos en la aplicación. Pagará una recompensa por errores de hasta $20,000 a cualquiera que encuentre vulnerabilidades previamente desconocidas.

Sin embargo, según Las noticias del hacker, “el programa no cubre la seguridad del modelo o los problemas de alucinaciones, en los que se le solicita al chatbot que genere código malicioso u otras salidas defectuosas”. Por lo tanto, parece que OpenAI desea fortalecer la tecnología contra ataques externos mientras hace poco para evitar que el chatbot se convierta en una fuente de ciberataques.
ChatGPT y otros chatbots serán actores clave en el ámbito de la ciberseguridad. Solo el tiempo dirá si la tecnología será el blanco de los ataques o la generadora de los mismos.
Las fugas de datos y los ciberataques se encuentran entre los problemas más graves de la actualidad. ¿No estás de acuerdo? Echa un vistazo a estos:
- Violación de datos de T-Mobile: 37 millones de cuentas afectadas
- Filtración de datos en Twitter: 400 millones de usuarios afectados
Source: Violación de datos de ChatGPT: OpenAI confirma vulnerabilidad en biblioteca de código abierto





