La semana pasada, la ansiedad sobre los riesgos de ChatGPT generó inteligencia artificial. Sam Altman, CEO de OpenAI, incluso habló ante una audiencia del Comité Judicial del Senado sobre los peligros y el potencial de la IA. Antes de saltar a los riesgos de ChatGPT, puede leer nuestro artículo sobre el CEO de OpenAI que se opone a una pausa de seis meses en el desarrollo de IA.
El uso de ChatGPT tiene seis problemas de seguridad distintos, según un informe publicado la semana pasada. Estos peligros incluyen la creación de servicios fraudulentos, la recopilación de información peligrosa, la divulgación de información privada, la producción de material objetable y la creación de lenguaje y código destructivos.
Además, puede leer El lado oscuro de ChatGPT: El costo humano del éxito de la IA.
¿Cuáles son algunos riesgos de ChatGPT?
Aquí hay un resumen de los hallazgos del estudio sobre cada peligro, incluido lo que hay que tener en cuenta.
- Recabando información
- texto negativo
- Programación maliciosa
- Crear material que no es moral
- Servicios poco confiables
- Publicación de datos confidenciales
Echemos un vistazo más de cerca para comprender los riesgos de ChatGPT.
Recabando información
Es posible que alguien que use ChatGPT con intenciones maliciosas recopile información que luego pueda usar para causar daños. El chatbot conoce mucha información que, en el equivocado manospodría ser armado ya que ha sido entrenado en una tonelada de datos.
En la investigación, se le pregunta a ChatGPT qué sistema de TI emplea un determinado banco. El chatbot compila una lista de los muchos sistemas de TI que emplea el banco cuestionado utilizando información de acceso público. Esta es solo una instancia de un actor malicioso que utiliza ChatGPT para descubrir información que podría brindarles la oportunidad de lastimar a otros.
“Esto podría usarse para ayudar en el primer paso de un ataque cibernético cuando el atacante está recopilando información sobre el objetivo para encontrar dónde y cómo atacar de manera más efectiva”. concluyó el informe.
texto negativo
la capacidad de ChatGPT producir texto que pueda usarse para crear ensayos, correos electrónicos, canciones y más es una de sus características más preciadas. Este talento literario, mientras tanto, también puede ser explotado para producir contenido ofensivo.
La creación de spam, noticias falsas, campañas de phishing e incluso la suplantación de identidad son ejemplos de producción de texto perjudicial, según la investigación.
Los autores del estudio utilizaron ChatGPT para desarrollar una campaña de phishing que informaba a los trabajadores de un aumento de sueldo ficticio y les indicaba que abrieran un documento de Excel adjunto que incluía malware para evaluar este riesgo. Como se anticipó, ChatGPT generó un correo electrónico realista y convincente.
Programación maliciosa
Al igual que las increíbles habilidades de escritura de ChatGPT, las excelentes habilidades de codificación del chatbot han demostrado ser un recurso útil para muchos. Sin embargo, la capacidad del chatbot para producir código podría potencialmente usarse negativamente. Incluso con poca o ninguna experiencia en codificación, el código ChatGPT se puede usar para generar código rápido, lo que permite a los atacantes lanzar ataques más rápidamente.
La investigación también encontró que ChatGPT puede usarse para crear código ofuscado, lo que dificulta que los analistas de seguridad detecten actividades dañinas y escapen a la protección antivirus.
El chatbot se niega a producir código dañino en el ejemplo, pero acepta producir código que pueda verificar una vulnerabilidad de Log4j en un sistema.
Crear material que no es moral
Para detener la difusión de información abusiva e inmoral, ChatGPT ha puesto barreras. Sin embargo, existen métodos para influir en ChatGPT para que diga cosas desagradables e inmorales si un usuario es lo suficientemente persistente.
Por ejemplo, configurando ChatGPT en “modo desarrollador”, los autores del estudio pudieron ir más allá de las medidas de seguridad. Allí, el chatbot hizo comentarios despectivos sobre un grupo étnico en particular.
Servicios poco confiables
ChatGPT puede ayudar con el desarrollo de nuevos programas, servicios, sitios web y otras cosas. Cuando se utiliza para lograr objetivos deseables, como iniciar su propia empresa o realizar el concepto de sus sueños, esta puede ser una herramienta muy útil. También podría implicar que es más sencillo que nunca desarrollar aplicaciones y servicios falsos.
Los actores maliciosos pueden utilizar ChatGPT como una técnica para crear plataformas y aplicaciones que imitan a otras y brindan acceso gratuito en un esfuerzo por atraer a personas desprevenidas. Estos delincuentes también pueden utilizar el chatbot para desarrollar programas diseñados para recopilar datos privados o propagar malware en los dispositivos de los usuarios.
Publicación de datos confidenciales
ChatGPT tiene medidas de seguridad para detener la transferencia de datos e información personal de los usuarios. Según la investigación, el peligro de que el chatbot revele involuntariamente números de teléfono, correos electrónicos u otra información confidencial sigue siendo un problema.
Un ejemplo real de los problemas antes mencionados es el ChatGPT interrupción en Marzo 20 que permitía a algunos usuarios ver títulos del historial de conversaciones de otro usuario.
Según la investigación, los atacantes podrían intentar usar ataques de inferencia de membresía para extraer ciertas partes de los datos de entrenamiento. Otra preocupación con la revelación de información privada es que ChatGPT puede revelar detalles sobre la vida privada de personas conocidas, incluido material inexacto o dañino que puede dañar la reputación de la persona.
Riesgos de ChatGPT: un comentario final
Los riesgos de ChatGPT han generado preocupaciones sobre servicios fraudulentos, recopilando información peligrosa. información, liberando privado datos, productor objetable materialy creando destructivo código. Los actores maliciosos pueden explotar las capacidades de ChatGPT para ataques cibernéticos, generación de contenido ofensivo, programación maliciosa, difusión de material inmoral, desarrollo de servicios no confiables y divulgación de datos confidenciales.
Si bien se han realizado esfuerzos para abordar estos riesgos, se necesitan investigaciones y colaboraciones continuas para establecer salvaguardas efectivas y garantizar el uso responsable de ChatGPT.
Si desea consultar más noticias sobre IA, asegúrese de consultar los artículos a continuación para mantenerse al día con la industria en rápido crecimiento.
- La fuga de OpenAI revela secretos entre usted y ChatGPT
- Bing Image Creator trae la función de generación de imágenes a través de DALL-E de OpenAI
- ¡Midjourney V5 está aquí para deleitar tus ojos!
Source: Riesgos de ChatGPT expuestos: comprensión de las amenazas potenciales