Los desarrolladores de ChatGPT idearon la herramienta de memoria para mejorar la experiencia del usuario al retener datos personales de una conversación a otra. Pero, como muchas oportunidades, también conlleva riesgos. Los profesionales de seguridad descubrieron recientemente una técnica que los piratas informáticos pueden utilizar para introducir recuerdos falsos en ChatGPT, lo que pone en peligro a los usuarios frente al robo de datos.
El problema está en la aplicación ChatGPT para MacOS, donde las partes adversarias pueden introducir indicaciones para alterar lo que la IA recuerda sobre sus usuarios. Como resultado, la información se almacena y luego se lleva al servidor del hacker. Aunque el problema parece grave, puede que no sea tan aterrador como parece a primera vista, gracias a varias medidas que ha tomado OpenAI para proteger a los usuarios.
La principal debilidad del sistema de memoria de ChatGPT
El investigador Johann Rehberger de Embrace The Red detalló la falla en un informe exhaustivo. Rehberger mostró cómo los atacantes pueden inyectar mensajes para guardar instrucciones maliciosas en la memoria de ChatGPT. En resumen, un hacker puede engañar a la aplicación para que memorice información incorrecta, poniendo en riesgo datos confidenciales para intercambios futuros.
El exploit se vuelve inseguro porque permite al atacante administrar la memoria de ChatGPT a lo largo de múltiples interacciones. Un hacker puede extraer cualquier dato del usuario (desde preferencias hasta nombres y configuraciones regionales) siempre que la memoria falsa permanezca incrustada en el sistema.
Afortunadamente, este tipo de ataque no está muy extendido. OpenAI ya ha abordado la vulnerabilidad y ha logrado que sea mucho más difícil para los piratas informáticos explotar la función de memoria. Aun así, existen vulnerabilidades, en particular en herramientas y aplicaciones de terceros, que exponen nuevas áreas para una posible manipulación.
Correcciones y vulnerabilidades restantes
OpenAI lanzó una actualización de API para la variante web de ChatGPT en respuesta al problema de memoria reconocido, lo que evita el uso del exploit de inyección rápida a través de la interfaz del navegador. Además, lanzaron una actualización para la herramienta de memoria que evita que se convierta en un vector de exfiltración. Estas mejoras son necesarias para que el sistema mantenga un alto nivel de seguridad, aunque persistan los riesgos potenciales.
Las aplicaciones de terceros siguen siendo la principal causa de alarma. Aunque las modificaciones de OpenAI han puesto fin al problema del abuso de memoria en sus sistemas esenciales, los investigadores de seguridad advierten de que el contenido no confiable aún puede dirigir la memoria de ChatGPT a través de aplicaciones conectadas, cargas de archivos e instrumentos de navegación. Esto representa un ámbito en el que las inyecciones instantáneas podrían prosperar aún más.
Cómo protegerse
Aunque los ajustes de OpenAI han reducido la amenaza de ataques generalizados, los usuarios deben permanecer alerta. A continuación, se indican algunas formas de protegerse de posibles ataques a la memoria:
- Revisa tus memorias de ChatGPT periódicamente:Los usuarios deben verificar con frecuencia las notificaciones de “nueva memoria agregada” en la aplicación ChatGPT. Esta función le permite revisar qué información está archivada, lo que le brinda la posibilidad de eliminar las entradas cuestionables.
- Desactivar la memoria si no es necesaria:ChatGPT tiene activada automáticamente la función de memoria, pero puedes optar por desactivarla. Este método es sencillo pero lo suficientemente potente como para eliminar el riesgo de ataques basados en la memoria.
- Tenga cuidado con las interacciones con terceros:Si usas aplicaciones conectadas o subes archivos a ChatGPT, debes tener mucho cuidado. Estas zonas siguen estando más expuestas a ataques de inyección rápida.
Aunque ningún sistema es completamente invulnerable a las amenazas, ser cauteloso y examinar rutinariamente las memorias almacenadas puede disminuir las posibilidades de ser blanco de este ataque.
ChatGPT mejora la seguridad de la memoria
La retención de datos de los usuarios por parte de ChatGPT para ofrecer un servicio personalizado es una herramienta muy potente. Con este método, el sistema puede recordar preferencias, recordar conversaciones anteriores e incluso reconocer gustos o disgustos particulares para elaborar mejores respuestas. Sin embargo, este poder es lo que ofrece riesgos. ChatGPT se expone a una posible manipulación mediante inyecciones rápidas al conservar la información durante mucho tiempo.
Rehberger informó que los piratas informáticos pueden generar una variedad de recuerdos falsos en una sola acción. Después de ser entregados, estos recuerdos sobreviven en ChatGPT, posiblemente afectando todas las comunicaciones futuras con la IA. La suposición de una confianza continua en el chatbot puede ser riesgosa, ya que los usuarios podrían compartir accidentalmente más información personal sin darse cuenta.
Aunque OpenAI ha logrado grandes avances para abordar estos desafíos, aún quedan algunas preguntas por responder. Por ejemplo, varios segmentos dentro de la plataforma siguen expuestos al riesgo de sufrir ataques de inyección rápida, en particular cuando se incluye contenido no verificado de terceros en una discusión. La decisión de la empresa de no clasificar esto como una “vulnerabilidad de seguridad”, sino como un “problema de seguridad modelo”, ha generado dudas entre los expertos.
Monitoreo regular: tu mejor defensa
Los usuarios deben tomar medidas adicionales para proteger su información a pesar de las vulnerabilidades ocultas de la memoria. A continuación, se muestran algunas opciones disponibles:
- Inspeccionar todas las notificaciones de “memoria actualizada”:Siempre que ChatGPT le notifique sobre una actualización de memoria, haga una pausa para revisar el contenido guardado. Esta función ayuda a identificar cualquier información innecesaria que se esté guardando.
- Eliminar recuerdos no deseados:Los usuarios tienen autoridad total sobre la memoria de ChatGPT. Si nota algo inusual, elimínelo para evitar posibles daños.
- Manténgase alerta con herramientas de terceros:Supervise las conexiones entre ChatGPT y aplicaciones de terceros. Estas herramientas aún son vulnerables a la manipulación, ya que los esfuerzos de OpenAI no han eliminado la posibilidad de inyecciones rápidas en estas áreas.
Trucos de memoria: ¿algo más que un simple error?
La vulnerabilidad de memoria descubierta en ChatGPT ha revelado que las herramientas de inteligencia artificial diseñadas para mejorar la experiencia del usuario pueden introducir riesgos de seguridad adicionales. Las características basadas en la memoria permiten interacciones personalizadas, pero permiten a los piratas informáticos hacer un uso indebido de estas interacciones con fines maliciosos.
A medida que ChatGPT avanza, los usuarios deben estar atentos, verificar constantemente los recuerdos guardados y tener cuidado al interactuar con contenido externo. Si bien OpenAI ha mejorado significativamente la seguridad, se requieren esfuerzos adicionales para abordar las vulnerabilidades existentes. Si está al tanto de los peligros potenciales y es proactivo, aún puede tener interacciones personalizadas con ChatGPT y, al mismo tiempo, garantizar la seguridad de sus datos.
Crédito de la imagen destacada:gratis