¿Es real o es IA? Así puedes identificar un deepfake y denunciarlo

¿Es real o es IA? Así puedes identificar un deepfake y denunciarlo

Foto: Freepik

La influencer mexicana Alana denunció hace unos días que una imagen sexual que circula en internet atribuida a ella es falsa. La joven anunció que emprenderá acciones legales contra quienes difundieron la imagen, que ella califica como un “deepfake”, un contenido generado con inteligencia artificial para simular a una persona real en situaciones o contextos inexistentes.

 

Este caso refleja una problemática que cada vez afecta a más personas, con la creación y difusión de imágenes o videos manipulados digitalmente con un realismo tal que es difícil distinguirlos de los originales.

 

¿Qué es un deepfake y cómo detectarlo?

 

El término deepfake combina “deep learning” (aprendizaje profundo) y “fake” (falso). Se trata de contenidos audiovisuales creados con técnicas de inteligencia artificial que suplantan la imagen, voz o movimientos de una persona para hacerla aparecer en escenas o decir cosas que nunca ocurrieron.

 

 

Detectar un deepfake puede ser complicado, pero expertos y especialistas en ciberseguridad han identificado ciertas señales de alerta:

 

  • Parpadeo y movimientos faciales poco naturales: las personas suelen parpadear de manera natural y fluida, pero en videos manipulados estos movimientos pueden parecer erráticos o escasos.
  • Inconsistencias en la piel y el cabello: texturas demasiado suaves, sombras o reflejos que no coinciden con la iluminación real.
  • Desajustes entre audio y movimiento de labios: la sincronía imperfecta entre lo que se escucha y el movimiento de los labios es un indicador común.
  • Duración del video: los deepfakes suelen ser cortos, pues crear uno de alta calidad requiere mucho tiempo y recursos.

 

Además, existen herramientas tecnológicas para análisis más detallados:

 

  • Sentinel y Sensity: plataformas que usan inteligencia artificial para detectar deepfakes en tiempo real, analizando puntos faciales, coherencia temporal y parpadeos.
  • FakeCatcher de Intel: software que detecta deepfakes con alta precisión en milisegundos, analizando señales biológicas sutiles en videos.
  • Google Reverse Image Search y TinEye: permiten buscar imágenes similares o duplicadas en la web para verificar su origen y autenticidad.
  • InVID WeVerify: plataforma gratuita que analiza videos, metadatos y versiones anteriores para detectar manipulaciones.

 

¿Qué dice la ley mexicana sobre la creación y difusión de deepfakes?

 

En México, el marco legal ha comenzado a adaptarse para proteger a las personas frente a la difusión no consentida de imágenes o videos íntimos, incluso cuando estos hayan sido alterados digitalmente.

 

  • Ley Olimpia: sanciona la violencia digital, incluyendo la difusión de contenido íntimo sin consentimiento, aplicable también a deepfakes si se usan para daño o acoso.
  • Código Penal Federal y estatales: sanciona la producción y distribución de pornografía infantil, abarcando incluso imágenes generadas por inteligencia artificial, para evitar abusos y delitos digitales.
  • Reformas recientes: por ejemplo, el Congreso de Sinaloa aprobó sanciones específicas para quienes manipulen imágenes, audios o videos íntimos con IA para crear hechos falsos con apariencia real, con penas de 3 a 6 años de prisión y multas económicas.
  • Aval de la Suprema Corte: la Suprema Corte de Justicia de la Nación validó estas sanciones, estableciendo cárcel para quienes creen y difundan contenido íntimo sin consentimiento mediante IA.
Notas Relacionadas