Un aumento significativo de los servicios de desnudos falsos con IA, según informa Graphika, pone de relieve una tendencia inquietante en el uso de inteligencia artificial para generar imágenes íntimas no consensuadas, lo que plantea serias preocupaciones éticas y legales.
Creciente popularidad de las herramientas de desvestimiento con IA
Graphika, una empresa de análisis de redes sociales, ha informado de un aumento preocupante en el uso de herramientas de “desnudez de IA”. Estas herramientas generativas de IA se están calibrando con precisión para eliminar la ropa de las imágenes enviadas por los usuarios, con un asombroso aumento del 2.408 % en las referencias en línea a estos servicios.
Las imágenes íntimas sintéticas no consensuales (NCII) suelen implicar la generación de contenido explícito sin el consentimiento de las personas representadas. Estas herramientas plantean amenazas de acoso selectivo, sextorsión y producción de material de abuso sexual infantil (CSAM).
La Internet Watch Foundation (IWF), una empresa de vigilancia de Internet con sede en el Reino Unido, ha destacado el desafío de distinguir entre pornografía generada por IA e imágenes auténticas, lo que complica los esfuerzos para combatir el abuso en línea.
Respuesta internacional
Las Naciones Unidas han descrito los medios generados por IA como una amenaza “seria y urgente” a la integridad de la información. En respuesta, el Parlamento Europeo y el Consejo acordaron recientemente normas que rigen el uso de la IA en la UE.
Source: El aumento de los servicios de desnudos deepfake generados por IA genera alarma