El surgimiento de los chatbots impulsados por IA ha revolucionado varias industrias, pero como muestra FraudGPT, los ciberdelincuentes no se quedan atrás. Tras la creación de WormGPT, un chatbot malvado que ayuda a suplantación de identidad y programa malicioso, la comunidad de ciberseguridad ahora se enfrenta a una nueva amenaza.
Con un modus operandi similar, FraudGPT lleva las intenciones maliciosas a nuevas alturas al permitir que los ciberdelincuentes ejecuten estafas avanzadas y robar datos confidenciales con facilidad. Mientras las empresas de tecnología y los expertos en seguridad luchan para proteger a los usuarios, el surgimiento de estos malévolos chatbots de IA señala una tendencia peligrosa en el mundo del ciberdelito.
¿Cómo se descubrió FraudGPT?
El proveedor de seguridad en la nube, Netenrich, se topó recientemente con FraudeGPT durante su investigación, que es un chatbot de IA diseñado para facilitar el cibercrimen. Su desarrollador, envuelto en el anonimato, se llevó a un foro de hacking para presumir de esta poderosa herramienta. El mensaje promocional atrajo a los usuarios potenciales con la promesa de transformar la comunidad de hackers y revolucionar sus operaciones criminales.
Al igual que su predecesor, WormGPT, FraudGPT opera a través de un cuadro de chat simple, respondiendo a las indicaciones de su usuario. En una escalofriante demostración en video, el chatbot muestra su eficiencia en la elaboración de mensajes de phishing SMS engañosos, imitando perfectamente a los bancos legítimos para engañar a las víctimas desprevenidas. Además, puede ofrecer recomendaciones sobre los sitios web más vulnerables para cometer fraude con tarjetas de crédito. El bot incluso proporciona números de identificación bancaria de Visa no verificados, facultar a los usuarios para obtener acceso no autorizado a la información de la tarjeta de crédito.
FraudGPT también escribe códigos y guías para hackear personas
La naturaleza insidiosa del desarrollador de FraudGPT no se detiene en suplantación de identidad y fraude. Parece que el individuo anónimo también se ocupa de información robada, incluido números de tarjetas de crédito, incorporar potencialmente estos datos ilícitos en el servicio de chatbot. Además, se ofrecen guías sobre la ejecución del fraude, ampliando aún más los límites de las posibilidades del delito cibernético.
Si bien la identidad del desarrollador de FraudGPT sigue siendo un misterio, una cosa está clara: esta herramienta malévola no sale barato El precio de tal socio en el crimen es $200 por mes, lo que supera el costo de WormGPT, demostrando la prima colocada sobre capacidades avanzadas de ciberdelincuencia.
Implicaciones futuras de FraudGPT
El auge de FraudGPT y sus contrapartes impulsadas por IA plantea serias preocupaciones dentro de la comunidad de ciberseguridad. Si bien el verdadero alcance de su eficacia sigue siendo incierto, su existencia plantea una amenaza significativa. Al simplificar el proceso de creación de correos electrónicos de phishing convincentes y estafas sofisticadas, estos chatbots maliciosos pueden bajar el listón para los ciberdelincuentes, atrayendo a más personas a participar en el ciberdelito. Cuando un delito es mucho más fácil de cometer, el potencial de los delincuentes menos desarrollados para recurrir a ese delito aumenta considerablemente, de manera similar a la cantidad de personas que roban en las tiendas. Eso sí, en el caso de FraudGPT, las cosas son mucho más serias.
A medida que el mundo adopta las innovaciones impulsadas por la IA para lograr avances positivos, debemos permanecer alerta contra sus aplicaciones más oscuras. El surgimiento de FraudGPT sirve como un serio recordatorio de la naturaleza en constante evolución del delito cibernético. es imperativo para empresas de tecnología, expertos en seguridad y organismos encargados de hacer cumplir la ley colaborar estrechamente para combatir la creciente ola de amenazas cibernéticas impulsadas por IA, de las que recientemente hemos visto un ejemplo cuando OpenAI, Google, Microsoft y Anthropic unieron fuerzas para regular las ‘IA de frontera’.
Manteniéndonos a la vanguardia y fomentando un entorno digital seguro, podemos protegernos de las intenciones malévolas de los ciberdelincuentes y preservar la integridad de la tecnología de IA para el bien común.
Foto principal: Crédito
Source: A la venta por $ 200: FraudGPT es el nuevo chatbot de ciberdelincuencia