Alertan sobre las "devastadoras" consecuencias de los videos "deepfake"

Los videos "deepfake", que manipulan la realidad, se están volviendo cada vez más sofisticados gracias a los avances de la inteligencia artificial.

Escrito en TENDENCIAS el

Im\ágenes de un pol\ítico diciendo lo que nunca dir\ía o un video porno de una estrella de Hollywood. Lo que podr\ía parecer una falla en el televisor no es otra cosa que el futuro de las “fake news“.

Los videos “deepfake”, que manipulan la realidad, se est\án volviendo cada vez m\ás sofisticados gracias a los avances de la inteligencia artificial, incrementando as\í su potencial para generar un nuevo tipo de desinformaci\ón, con consecuencias devastadoras.

“A\ún no llegamos a la etapa en la que vemos c\ómo se usan los ‘deepfakes’ como armas, pero ese momento est\á cerca”, dice a AFP Robert Chesney, un profesor de derecho en la Universidad de Texas que investig\ó el tema.

Chesney considera que los “deepfakes” podr\ían sumar confusi\ón a la ola actual de desinformaci\ón y operaciones dirigidas.

“Un ‘deepfake’ oportuno con un gui\ón intencionado o una serie de estos videos podr\ían dar vuelta una elecci\ón, encender la violencia en una ciudad preparada para la agitaci\ón social, impulsar discursos sobre supuestas atrocidades de un enemigo o exacerbar las divisiones pol\íticas en una sociedad”, se\ñalaron Chesney y Danielle Citron, profesora de la Universidad de Maryland, en una publicaci\ón de blog para el Consejo de Relaciones Exteriores.

Paul Scharre, miembro del Center for a New American Security, un think tank especializado en inteligencia artificial y temas de seguridad, dice que es casi inevitable que los “deepfakes” puedan ser utilizados en pr\óximas elecciones.

Un video falso podr\ía ser usado para desprestigiar a un candidato, advierte Scharre, o para que la gente pueda negar hechos expuestos en videos aut\énticos.

Si circulan videos falsos cre\íbles, la “gente puede elegir creer la versi\ón o discurso que quieran, y esa es la verdadera preocupaci\ón”, a\ñade.