21 de diciembre de 2024

Ciberdelincuentes están creando falsas imágenes y videos sexuales mediante IA para sextorsión

ESET advierte sobre el uso de herramientas basadas en inteligencia artificial para crear desnudos a partir de imágenes y videos públicos para extorsionar a las personas.

Ciudad de México Con el avance de las herramientas basadas en inteligencia artificial (IA) para la generación de imágenes y la calidad de los resultados los actores maliciosos han encontrado una forma de mejorar estos ataques. ESET, compañía líder en detección proactiva de amenazas, advierte la creación de desnudos a partir de imágenes y videos públicos para extorsionar a las personas.

 

En un comunicado publicado el 5 de junio, el FBI alertó sobre el uso por parte de actores maliciosos de imágenes y videos públicos manipulados para campañas de sextorsión. Según advierten, en el último tiempo han recibido varios reportes de víctimas que sufrieron la manipulación de videos e imágenes suyas para la creación de contenido sexual falso. Los actores maliciosos detrás de estas campañas luego divulgan este material en redes sociales o sitios de pornografía para extorsionar a las víctimas o simplemente intimidarlas. Entre las denuncias también se registraron víctimas que son menores de edad.

 

Estas imágenes y videos son obtenidos de redes sociales, de fuentes públicas o incluso proporcionadas por las víctimas y mediante tecnologías basadas en Inteligencia Artificial crean imágenes falsas con apariencia muy real. Desde ESET anteriormente se había advertido sobre la creación de rostros falsos mediante IA, y que la calidad de estas imágenes puede engañar fácilmente el ojo humano.

 

El FBI explica también que muchas de las víctimas no están al tanto de la existencia de estas imágenes falsas en las que se suplanta su identidad hasta que alguien le avisa porque las encontró de forma casual o porque son chantajeadas. Si bien es posible intentar que ese contenido desaparezca de Internet, es una tarea muy compleja.

 

“En los últimos años hemos visto muchas campañas de sextorsión en las cuales los delincuentes envían correos personalizados intentando asustar a las víctimas haciéndoles creer que han sido víctimas de una infección con un malware que permitió a los cibercriminales grabar videos íntimos utilizando la cámara web de la víctima. Si bien es falso y los delincuentes no han infectado con malware los equipos y no tienen videos o imágenes comprometedores, igualmente intentan extorsionar a las víctimas para que envíen dinero y de esta manera evitar que ese supuesto contenido empiece a circular por Internet. Lamentablemente, muchas personas caen en la trampa. La forma de robar el dinero puede variar, desde el depósito de determinada suma en criptomonedas en una billetera virtual a demandar el envío de Gift cards”, comenta Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica.

 

Pie de imagen: Ejemplo de campaña de sextorsión haciendo creer a la víctima que tienen en su poder imágenes o videos íntimos grabados desde su cámara web.

 

Con el avance de las herramientas basadas en IA para la generación de imágenes y la calidad de los resultados los actores maliciosos han encontrado una forma de mejorar estos ataques. Actualmente existe una gran cantidad de herramientas y aplicaciones que se ofrecen de forma gratuita en repositorios públicos para crear deepfakes e incluso en foros clandestinos.

 

“Sin dudas esta realidad actual obliga a los cuidadores de niñas, niños y adolescentes a estar más atentos y a poner al tanto a los más pequeños sobre estas nuevas tendencias. También refuerza la importancia de enseñar buenas prácticas de privacidad en línea y las consecuencias de la información que publicamos. Pero no solo debemos proteger a los más chicos, sino también los propios adultos, que también son víctimas”, agrega Gutiérrez Amaya de ESET.

 

Algunos países ya están tomando medidas para minimizar el uso de deepfakes y en Reino Unido, por ejemplo, ya existen iniciativas para cambiar la ley y sancionar a quienes comparten estos contenidos falsos.

 

Deja una respuesta