La irrupción de los deepfakes ha abierto un escenario completamente nuevo en la seguridad digitalKindelán

XIX Jornadas STIC CCN-CERT | VII Jornadas de Ciberdefensa ESPDEF-CERT | Congreso RootedCON  De la suplantación de un CEO al espionaje digital: así se están utilizando los 'deepfakes'

Los deepfakes se han convertido en una de las herramientas más peligrosas para el fraude, la desinformación y la manipulación digital. Especialistas en ciberseguridad han alertado en las XIX Jornadas STIC CCN-CERT | VII Jornadas de Ciberdefensa ESPDEF-CERT | Congreso RootedCON cómo estas técnicas avanzan cada día, qué usos delictivos se están extendiendo y qué medidas pueden adoptar empresas y ciudadanos para defenderse en un escenario donde la detección es cada vez más difícil. Dichas jornadas están organizadas por el Centro Nacional de Inteligencia (CNI) a través del Centro Criptológico Nacional (CCN).

La irrupción de los deepfakes ha abierto un escenario completamente nuevo en la seguridad digital. Los expertos coinciden en que su producción está creciendo y diversificándose, mientras que la calidad del resultado final mejora con cada avance tecnológico. Durante una ponencia centrada en este fenómeno, Anna Angulo, Senior Intelligence Consultant en Recorded Future, describió los principales usos maliciosos, los retos en la detección y una serie de recomendaciones dirigidas a organizaciones y usuarios para afrontar esta amenaza en constante evolución.

Uno de los primeros aspectos señalados es que la presencia de contenido generado artificialmente es ya cotidiana. Gran parte del público se ha acostumbrado a ver vídeos, audios e imágenes manipuladas sin ser siempre consciente de ello. Sin embargo, bajo esa normalización se esconden riesgos que van más allá del entretenimiento. Uno de los usos más comunes en el ámbito delictivo es la extorsión, especialmente los casos en los que un atacante suplanta la identidad de un directivo para solicitar transferencias de dinero o información sensible. Este tipo de fraude, cada vez más sofisticado, se apoya en imitaciones convincentes de voz o vídeo.

Fake de Putin arrodillado ante Xi JinpingInfoveritas

La desinformación es otro ámbito donde los deepfakes han adquirido un papel relevante. Según la especialista, estas técnicas se utilizan para influir en elecciones, generar confusión en momentos de crisis o reforzar campañas de propaganda. También afectan a marcas comerciales o a la reputación de personas concretas, y están empezando a aparecer en el ámbito judicial, donde pueden retrasar procesos de verificación de evidencias y poner en riesgo la credibilidad de ciertos procedimientos.

Al hablar de los tipos de manipulación, la ponente distinguió varias categorías. El lipsync se centra en modificar exclusivamente el movimiento de la boca para alterar el mensaje sin cambiar la identidad del protagonista. Es una técnica sutil, suficiente para distorsionar declaraciones públicas o atribuir mensajes falsos a una persona real. Otra categoría es el face swap, en la que la cara completa se sustituye por la de otra persona. Aquí, el objetivo principal es suplantar identidades o producir vídeos completamente falsos que resulten creíbles.

Detectar estos contenidos es cada vez más complejo. Los expertos mencionaron algunos indicios tradicionales: anomalías en los reflejos de la luz en los ojos, bordes del rostro mal definidos, dientes imperfectos o microexpresiones incoherentes. En los casos más avanzados, se analizan incluso patrones de respiración y latido cardíaco, que la inteligencia artificial trata de imitar para generar una apariencia realista. Cada mejora en la generación de deepfakes deja obsoletas muchas de las técnicas de detección utilizadas hasta ese momento.

La clonación de voz

El audio es otro campo de preocupación. La clonación de voz mediante IA ha pasado de ser una herramienta experimental a convertirse en un recurso habitual para los ciberdelincuentes. Esta técnica está detrás de muchos casos recientes de vishing o estafas telefónicas en las que un atacante simula la voz de un directivo o familiar. En estos escenarios, la detección requiere analizar detalles como la entonación, los silencios, las pausas o la presencia de ruido artificial de fondo. Sin embargo, reconocer estas señales implica un nivel de atención que no siempre es posible en situaciones de presión o urgencia.

Representación de la inteligencia artificial

En los casos donde se combinan manipulación de voz y vídeo, la complejidad aumenta. La creación de vídeos falsos ya no requiere grandes recursos: las herramientas se han democratizado y cualquier usuario puede producir resultados sorprendentes desde aplicaciones móviles o servicios disponibles en línea. Por ello, los especialistas subrayan la necesidad de abordar este fenómeno desde una perspectiva de soluciones integradas, que incluyan tecnología, inteligencia y formación.

Concienciación

El primer pilar es la concienciación. Pese a que pueda parecer básico, se considera una de las medidas más eficaces en relación coste-beneficio. La simple acción de detenerse unos segundos, revisar un mensaje o verificar una firma puede evitar consecuencias graves. En muchos incidentes, el problema no radica en la sofisticación del ataque, sino en la falta de precaución ante una solicitud inesperada o sospechosa.

Herramientas de detección

El segundo pilar es el uso de herramientas de detección. Existen múltiples soluciones basadas en análisis de imagen, sonido o metadatos, pero su efectividad es limitada por la velocidad con la que evolucionan las técnicas de generación de deepfakes. Esta brecha tecnológica obliga a mantener un enfoque dinámico: lo que hoy funciona, mañana, puede resultar insuficiente. Además, es necesario automatizar estos procesos para detectar anomalías en tiempo real, algo especialmente relevante en entornos corporativos.

Aplicación de inteligencia artificial

El tercer pilar, según la ponencia, es la aplicación de inteligencia artificial para reforzar la prevención. Este enfoque incluye monitorizar a los actores que crean o distribuyen deepfakes, detectar foros donde se ofrecen servicios de clonación de voz o vídeo, y anticipar campañas de manipulación antes de que se produzcan. La inteligencia permite analizar conversaciones, identificar intereses y detectar patrones de comportamiento, especialmente en comunidades que buscan desarrollar técnicas de bypass biométrico para vulnerar sistemas de autenticación.

Durante la charla de Anna Angulo se mostraron ejemplos de publicaciones obtenidas en foros rusos y taiwaneses, donde usuarios discutían cómo burlar sistemas biométricos o cuánto tiempo se requiere para generar una voz convincente. También se hizo referencia a servicios que ofrecen deepfakes personalizados a través de bots de Telegram, plataformas de compraventa en mercados digitales y aplicaciones móviles con millones de descargas. Este ecosistema demuestra que los deepfakes ya se han convertido en un servicio más dentro de la economía digital clandestina.

Uno de los puntos más interesantes fue la posibilidad de utilizar inteligencia para correlacionar eventos, especialmente en contextos electorales. Mediante análisis automatizados se pueden observar picos de actividad en redes sociales, compararlos con la aparición de noticias o detectar patrones de desinformación que se repiten antes de momentos clave. Estas herramientas permiten anticiparse y comprender mejor cómo se despliegan las campañas basadas en deepfakes.

En las conclusiones, los expertos advirtieron de que la amenaza no se limita a la manipulación económica. Los deepfakes son también una herramienta para el espionaje, ya que facilitan que un atacante se gane la confianza de una víctima y obtenga información sensible con facilidad. La recomendación principal es reforzar la verificación de identidades en cualquier interacción crítica, especialmente en comunicaciones que impliquen decisiones financieras o acceso a información reservada.

Además, insistieron en que es necesario adoptar medidas proactivas. Cada organización debe analizar sus riesgos, establecer prioridades y diseñar una estrategia que combine concienciación, detección y análisis avanzado. Aunque la tecnología de detección no es perfecta, la inteligencia puede cubrir parte de esas lagunas y ofrecer una visión más clara del contexto en el que operan los atacantes.

La sesión concluyó con una advertencia clara: cualquiera puede ser objetivo de un deepfake, independientemente de su perfil público o profesional. Por ello, la formación continua y la vigilancia activa se consideran esenciales para mitigar riesgos en un entorno donde la manipulación es cada vez más accesible.