IA: Clonacion de voz para estafas virtuales y deepfakes para sextorsión
Publicado: 10-06-2023
Los estafadores usan audios, fotos y videos públicos para extorsionar.
El auge cada vez mayor de las herramientas basadas en IA atrae cada vez más a los ciberdelincuentes, dado aumento en la disponibilidad de las ofertas de clonación de voz como servicio (VCaaS), que impulsan los fraudes del tipo DEEP FAKE. Estas herramientas y servicios son capaces de difundir información falsa de manera muy efectiva y pueden superar fácilmente a los controles y sistemas MFA basados en voz.
Bandas de ciberdelincuentes están ofreciendo plataformas de clonación de voz listas para usar, lo que ayuda a otros ciberdelincuentes a realizar ataques de manera efectiva sin ningún conocimiento técnico sólido. Estas herramientas de clonación de voz están destinadas a crear voces falsas de celebridades populares, políticos, personas influyentes o un familiar tuyo muy activo en TikTok. Estas grabaciones de audio falsas pueden usarse para difundir desinformación o para llevar a cabo fraudes de ingeniería social.
Algunas de estas plataformas de clonación de voz automatizadas se ofrecen de forma gratuita, mientras que otras cuestan una cantidad mínima de dinero. En algunos casos, utilizan herramientas genuinas que se utilizan para doblar libros, doblar audio para películas y programas de televisión, y herramientas de doblaje para anuncios. Una plataforma popular de clonación de voz es Prime Voice, un software de texto a voz. La herramienta genuina permite a los usuarios cargar muestras de voz personalizadas con un cargo premium mínimo. Sin embargo, se vende en la dark web a un precio mucho más bajo.
Complementariamente los esquemas de sextorsión generalmente involucraban material digital que fue coaccionado o robado de una víctima. Pero ahora los extorsionadores han recurrido al uso de tecnología para crear imágenes o videos sexualmente explícitos a partir de contenido real publicado on line.
El objetivo del ladrón es un pago para no divulgar el material comprometedor o usar los archivos como herramienta de presión para que la víctima envíe nuevo contenido explícito.
En estos días el FBI sea pronunciado sobre informes de víctimas, incluidos niños menores y adultos que no dieron su consentimiento, cuyas fotos o videos fueron alterados en contenido explícito en todo el planeta, las fotos o videos luego se distribuyen públicamente en las redes sociales o sitios web pornográficos, con el fin de acosar a las víctimas o extorsionarlas.
Estos deepfakes, también conocidos como «contenido sintético» generados con herramientas de inteligencia artificial, existen desde hace años, pero la materia prima para los deepfakes ha aumentado significativamente en los últimos años, basado en material publicado por las propias víctimas en sus redes sociales y publicaciones.
Las personas y las familias deberían limitar su exposición potencial a tales esquemas si tienen cuidado al publicar material o interactuar con extraños on line. Ademá, realizar búsquedas frecuentes on line de tu información y la de tus hijos (. ej., nombre completo, dirección, número de teléfono, etc.) para prevenir y ayudar a identificar la exposición y difusión de información personal en Internet. Considerar usar motores de búsqueda de imágenes inversas para ubicar cualquier foto o video que haya circulado en Internet sin su conocimiento.
info@btrconsulting.com
www.btrconsulting.com