DÍA DE LAS RRSS

El uso de tecnologías para la suplantación de identidad ha aumentado entorno a un 300% a nivel mundial desde 2022

Falsos candidatos, CEO suplantados y audios manipulados, Trend Micro advierte de las redes sociales como nuevas armas del cibercrimen.

Cibersur.com | 27/06/2025 11:53
Con más de 5.000 millones de usuarios activos en redes sociales a nivel mundial, las plataformas digitales se han consolidado como un pilar de conexión, información y negocio. Sin embargo, su uso masivo y la exposición continua de datos personales y profesionales las ha convertido también en terreno fértil para el uso malicioso de inteligencia artificial generativa para crear contenidos falsificados o deepfakes.

Con motivo del Día Mundial de las Redes Sociales, Trend Micro, líder global en ciberseguridad, advierte sobre cómo los deepfakes están revolucionando el panorama delictivo digital. Según datos internos de la compañía, el uso de este tipo de tecnologías para la suplantación de identidad y la manipulación audiovisual ha aumentado entorno a un 300% a nivel global desde 2022. En Europa, el 65% de las empresas ha sufrido intentos de fraude vinculados a suplantaciones, un 20% de ellos con contenidos sintéticos generados por inteligencia artificial.

“Lo que hace tres años parecía ciencia ficción, hoy es una amenaza muy real”, afirma David Sancho, investigador senior de amenazas en Trend Micro. “Los delincuentes ya no necesitan técnicas sofisticadas para engañar; les basta con unos minutos de vídeo público o una voz grabada para clonar la identidad de cualquier persona”.

Fraudes corporativos
Uno de los usos más inquietantes de los deepfakes es la creación de audios falsos que imitan la voz de altos ejecutivos para solicitar transferencias urgentes de dinero a empleados de departamentos financieros. Este tipo de fraude, conocido como “fraude del CEO”, se ha sofisticado con el uso de inteligencia artificial, haciendo que las solicitudes sean prácticamente indistinguibles de una comunicación legítima.

Sin ir más lejos, en 2024, una empresa británica transfirió más de 240.000 libras esterlinas tras recibir una llamada aparentemente de su CEO. La voz era indistinguible de la original, pero había sido generada por IA a partir de fragmentos de entrevistas públicas.

Las entrevistas laborales remotas también están siendo explotadas como una vía de acceso a las redes corporativas. Los atacantes se presentan con identidades completamente fabricadas: fotos generadas por IA, perfiles en LinkedIn construidos con detalle, e incluso deepfakes en vídeo que simulan candidatos ideales.

Durante estas entrevistas, los atacantes utilizan modelos de lenguaje como ChatGPT en tiempo real para responder preguntas técnicas. Si son contratados, reciben equipos informáticos y credenciales de acceso que luego usan para robar datos o instalar ransomware. En algunos casos, los mismos atacantes han cobrado sueldos simultáneamente de tres o cuatro empresas, sin realizar ninguna labor, hasta ejecutar su golpe final.

Un informe reciente del Departamento de Justicia de EE. UU. reveló que más de 300 empresas americanas fueron víctimas de este tipo de fraude, con un perjuicio económico superior a los 17 millones de dólares.

El desafío para el sistema financiero
El sector bancario y las plataformas financieras también están en el punto de mira. Los criminales utilizan imágenes robadas o documentos falsos para generar vídeos deepfake que simulan procesos de verificación de identidad. En estas grabaciones manipuladas, se ve a una persona hablando a cámara mientras sostiene su documento de identidad, todo ello generado de forma sintética.

Estos servicios ya se ofrecen abiertamente en foros de la dark web, donde ciberdelincuentes venden paquetes completos para suplantar identidades y abrir cuentas falsas con fines de blanqueo de capitales. En muchos casos, estas herramientas permiten incluso añadir una hoja manuscrita con la fecha del día para pasar los controles más exigentes.

Engaños emocionales y criptoestafas
Más allá del ámbito empresarial, los consumidores también están siendo blanco de estas nuevas formas de manipulación audiovisual. Una de las estafas que ha ganado terreno es el secuestro virtual. Mediante audios generados con la voz de un hijo o hija, los criminales simulan llamadas desesperadas a sus padres, exigiendo un rescate económico inmediato. En Estados Unidos, el FBI ha emitido varias alertas tras múltiples denuncias de este tipo.

Otra tendencia creciente es el uso de vídeos manipulados con la imagen de celebridades o directivos de empresas tecnológicas para promocionar criptomonedas fraudulentas. Estas campañas, que se propagan rápidamente por redes como Instagram o TikTok, han provocado pérdidas millonarias entre inversores particulares que creyeron estar respaldando proyectos legítimos.

LinkedIn: una mina de información para los atacantes
Las redes sociales profesionales, especialmente LinkedIn, juegan un papel clave en la fase de preparación de estos ataques. Los ciberdelincuentes analizan los perfiles públicos de empleados, descubren tecnologías implementadas en las empresas, organigramas internos y nombres de responsables, todo sin necesidad de vulnerar sistemas.

Esta información les permite crear ataques altamente personalizados, dirigidos y creíbles. Un simple post sobre un proyecto técnico puede revelar herramientas internas que faciliten un ciberataque posterior.

Desde la compañía se subraya en la importancia en la gestión proactiva del riesgo y la visibilidad, y más ante este nuevo paradigma de amenazas. Las organizaciones necesitan comprender cuál es la superficie de ataque expuesta y cómo puede ser explotada a través de canales aparentemente inofensivos como las redes sociales. 

La plataforma Trend Vision One de Trend Micro pone a disposición de las organizaciones la capacidad de ofrecer una visión completa de la infraestructura tecnológica, detectar actividades anómalas en tiempo real y responder con rapidez ante cualquier intento de suplantación o intrusión.

A nivel personal, desde la compañía se aconseja desconfiar de comunicaciones urgentes o demasiado perfectas, verificar por canales independientes cualquier solicitud sensible y alertar a familiares, especialmente mayores, sobre el uso de audios y vídeos manipulados para engañar emocionalmente.



Envíanos tus Comentarios

Cibersur no se hace responsable de las opiniones reflejadas en los comentarios
introducir este texto en la contenedor de la izquierda recargar
Comentarios - total 0


Quienes Somos | Publicidad | Suscripción | Contacto | Nota Legal
© CIBERSUR Edita CPS S.L. en Sevilla (España, UE)