IMAGE: E. DansUn artículo en The Atlantic, The era of fake video begins, subraya el problema que surge cuando el desarrollo del machine learning hace perfectamente posible crear vídeos manipulados en los que se puede obtener prácticamente cualquier efecto, desde insertar una cabeza en un cuerpo de otra persona con un nivel de perfección que convierte el cambio en prácticamente imperceptible, hasta cambiar el movimiento de los labios de un personaje y su voz para que parezca que dice algo que no ha dicho, pasando por cambiar el tiempo o pasar del día a la noche.

Es el mundo del deepfake, término creado por la fusión de deep learning y fake, y popularizado por el primer usuario que creó un canal para subir vídeos de ese tipo: la posibilidad de, con herramientas relativamente sencillas, manipular o alterar la realidad para que se ajuste a lo que alguien pretende, sea un vídeo porno con su actriz favorita, un político diciendo algo que no dijo, o cualquier otro tipo de invención que, en realidad nunca tuvo lugar, pero se hace parecer perfectamente real y recogida en vídeo. A partir del momento en que las herramientas son suficientemente sencillas, cualquiera con tiempo e interés puede hacerlo, y la tarea se convierte en algo similar a contar con un asistente prácticamente perfecto que corrige los detalles fotograma a fotograma. Algunas páginas han prohibido su uso, pero en otras, particularmente pornográficas, es fácil encontrar secciones enteras de deepfakes, de vídeos creados por usuarios en los que se utilizan este tipo de técnicas, con resultados, en muchos casos, perfectamente creíbles o muy difíciles de detectar para un observador casual o no entrenado.

¿Qué ocurre en un mundo en el que la tecnología avanza para crear realidades inventadas que no podemos creer aunque las estemos viendo con nuestros propios ojos? ¿Qué consecuencias puede tener que podamos ver un vídeo porno protagonizado por quien nosotros queramos, poner a un político a decir la frase que estimemos oportuna, o falsear cualquier otro detalle de cualquier tipo? El problema de las fake news, la invención de titulares y noticias falsas destinadas a su difusión, pasa a tener una nueva dimensión: ahora no solo se trata de creer o no a la fuente, sino al material audiovisual que viene con ella. Desde posibles problemas reputacionales a crisis de imagen o simple entretenimiento, generados tecnológicamente de una manera tal que convierte en sumamente difícil diferenciar la ficción de la realidad. Puedes no haber rodado un vídeo pornográfico en tu vida, no haber estado jamás en un sitio o no haber dicho nunca una frase determinada, pero eso ya no es obstáculo para que tu imagen sea distribuida apareciendo en un vídeo pornográfico, en un sitio en el que no has estado, o diciendo algo que nunca has dicho.

Como en toda caída de barreras de entrada, se generan espacios de muy difícil definición. Desde un punto de vista estrictamente legal, las consecuencias parecen claras. Pero si añadimos una capacidad para crear este tipo de vídeos completamente distribuida y herramientas para darles una difusión masiva mucho antes de que nadie pueda reaccionar, ese desarrollo legal que supuestamente protege al afectado se convierte en prácticamente irrelevante, porque cuando es capaz de reaccionar, el daño, en muchos casos, ya está hecho, y las imágenes no pueden ser borradas de los cerebros de quienes han sido expuestos a ellas. El valor de un vídeo, de algo que presuntamente sucede ante nuestros ojos, reducido a la de documento que casi cualquiera con cierta habilidad puede crear y manipular, prácticamente sin límites. Toda una necesidad de reeducar a una sociedad no preparada para ello y hacerles entender que aquello que sus ojos están viendo no tiene por qué haber sucedido realmente, y no es necesariamente producto de una maquinaria sofisticada o cinematográfica de efectos especiales, sino que puede haber sigo creado por casi cualquiera.

Curioso mundo este…

 

Comments are closed.