Hoy en día, las falsificaciones con inteligencia artificial se están convirtiendo rápidamente en uno de los mayores problemas a los que nos enfrentamos en internet.
Las imágenes, videos y audios engañosos proliferan como resultado del auge y el uso indebido de herramientas de inteligencia artificial generativa.
DALL-E, Midjourney y Sora de OpenAI son generadores de video e imágenes que facilitan que personas sin ningún conocimiento técnico puedan crear imágenes de tipo deepfake: basta con escribir una solicitud y el sistema la produce.
Te podría interesar
Si bien, estas imágenes falsas podrían parecer inofensivas, pueden utilizarse para llevar a cabo estafas y robos de identidad, o propaganda y manipulación electoral.
¿Cómo se puede evitar ser engañado por deepfakes?
La tecnología distaba mucho de ser perfecta en los primeros tiempos de los deepfakes y a menudo dejaba señales reveladoras de manipulación.
Te podría interesar
Errores obvios, como manos con seis dedos o gafas con cristales distintos entre sí, eran detectados en las imágenes por los verificadores, pero a medida que la IA ha ido mejorando, se ha vuelto mucho más difícil detectar las falsificaciones.
"Algunos consejos ampliamente compartidos, tales como buscar patrones de parpadeo poco naturales entre las personas que aparecen en videos deepfake, ya no son válidos", dijo Henry Ajder, fundador de la consultora Latent Space Advisory y uno de los principales expertos en IA generativa.
"Aun así, hay algunas cosas que hay que tener en cuenta", agregó.
Muchas de las fotos deepfake creadas con IA, especialmente de personas, tienen un brillo electrónico, “una especie de efecto estético de suavizado” que hace que la piel “parezca increíblemente reluciente”, señaló Ajder.
Sin embargo, advirtió que, a veces, un toque creativo puede eliminar éste y muchos otros indicios de manipulación con IA.
Verifique la coherencia de las sombras y la iluminación. A menudo, el sujeto está bien enfocado y parece convincentemente realista, pero los elementos del fondo pueden no ser tan realistas ni relucientes.
Mirando los rostros
El intercambio de rostros es uno de los métodos de deepfake más comunes. Los expertos aconsejan fijarse bien en los bordes de la cara.
Si sospecha que el video de una persona que está hablando ha sido manipulado, fíjese en la boca.
Ajder sugiere mirar los dientes.
La empresa de ciberseguridad Norton dice que es posible que los algoritmos aún no sean lo suficientemente sofisticados como para generar dientes individuales, por lo que la falta de contornos de dientes individuales podría ser una pista.
Mirando el contexto
A veces el contexto es importante. Tómese su tiempo para sopesar si lo que ve es verosímil.
El sitio web de periodismo Poynter aconseja que, si usted ve a un personaje público haciendo algo que parece “exagerado, poco realista o incongruente con su personalidad”, podría tratarse de un deepfake.
Utilizar fuego con fuego
Otro enfoque consiste en utilizar la IA para luchar contra la IA.
Microsoft ha desarrollado una herramienta de autentificación que puede analizar fotos o videos para dar una puntuación de confianza sobre si han sido manipulados. FakeCatcher, del fabricante de circuitos integrados Intel, utiliza algoritmos para analizar los pixeles de una imagen con el fin de determinar si es real o falsa.
Hay herramientas en internet que prometen detectar las falsificaciones si usted sube un archivo o le pega un enlace al material sospechoso.
Pero algunas, como el autentificador de Microsoft, sólo están disponibles para socios seleccionados y no para el público en general. Esto se debe a que los investigadores no quieren alertar a los delincuentes y darles una mayor ventaja en la carrera armamentista de los deepfakes.
El acceso abierto a las herramientas de detección también podría darle a la gente la impresión de que son “tecnologías milagrosas que pueden realizar el pensamiento crítico por nosotros”, cuando en realidad debemos ser conscientes de sus limitaciones, afirma Ajder.
Obstáculos para la detección de contenidos falsos
Dicho esto, la inteligencia artificial avanza a un ritmo vertiginoso y los modelos de IA están siendo entrenados con datos de internet para producir contenidos cada vez de mayor calidad y menos fallas.
Esto significa que no hay garantía de que estos consejos sigan siendo válidos dentro de un año, citó la agenda de noticias AP.
Los expertos dicen que incluso podría ser peligroso responsabilizar a los ciudadanos de a pie para que se conviertan en Sherlocks digitales, ya que podría darles una falsa sensación de confianza a medida que se hace cada vez más difícil detectar deepfakes, incluso para los ojos entrenados.