WhatsApp fake newsA medida que la tecnología, el periodismo, los gobiernos y una gama cada vez más amplia de actores intentan buscar soluciones contra la difusión de noticias falsas en redes sociales, más nos vamos dando cuenta de que, en realidad, el problema se debe a una ausencia de educación en el uso de una herramienta que cuenta con potentes sistemas que incentivan la compartición, unido a una cultura en la que mecanismos como la verificación, el contraste de fuentes o el desarrollo del pensamiento crítico no forman parte aún del proceso educativo.

Podemos desarrollar infinidad de herramientas; sistemas de verificación, fact-checkers o algoritmos para intentar combatir la difusión de las llamadas fake news, pero en último término, cuando las barreras de entrada a la publicación y difusión bajan dramáticamente, resulta imposible evitar que una persona que está deseando creer algo participe en su difusión a muchas otras personas que, probablemente, piensan igual que ella. Las únicas soluciones verdaderamente sostenibles, seguramente, están relacionadas con el cambio del proceso educativo y el desarrollo de habilidades  en el conjunto de la sociedad.

En el medio de toda la polémica sobre la circulación de noticias falsas, surge un canal que no es estrictamente y como tal una red social, pero sí juega a menudo un papel similar: estrictamente, WhatsApp y los sistemas de mensajería instantánea son canales interpersonales de comunicación, pero cuando la comunicación se estructura en grupos y las personas se convierten en vectores que reenvían y circulan información entre esos grupos, lo que tenemos es, en realidad, un mecanismo perfecto para la difusión, que puede ser apalancado por cualquier interesado en la creación de estados de opinión.

Recientemente, en una de las regiones centrales de India, dos jóvenes que detuvieron su automóvil para pedir indicaciones fueron linchados por una multitud que creyó que eran, tal y como habían leído en un mensaje ampliamente difundido por WhatsApp, criminales que buscaban matar a personas para comerciar con sus órganos. El meteórico crecimiento de WhatsApp ha convertido la plataforma de mensajería en un canal perfecto por el que circulan bulos de todo tipo y que, al no ser un canal público, se convierte en una caja negra que dificulta sensiblemente las labores de seguimiento y verificación. Personas de toda condición que creen hacer un favor a sus compañeros de grupo alertándolos sobre supuestas “noticias” que informan sobre la elevación de la alerta terrorista, sobre un nuevo tipo de robo o estafa, sobre el tremendo peligro de unos supuestos smartphones explosivos abandonados en la calle o sobre teorías conspiranoicas de todo tipo, pero que también pueden ser adecuadamente instrumentalizados para difundir noticias con propósito de manipulación social o política.

La evolución de las tecnologías implicadas en la lucha contra las fake news puede verse de día en día. Desde servicios de verificación como Verificado (México), Maldito Bulo (España) o las ya veteranas Snopes o PolitiFact (Estados Unidos), hasta herramientas basadas en blockchain que etiquetan las noticias en el navegador. Para cada avance en el desarrollo de, por ejemplo, deep fakes en vídeo que permiten alterar secuencias o voces para hacerlas parecer genuinas (¿cómo no lo voy a creer y a circular, si lo he visto con mis propios ojos?), surgen startups con rondas de capital interesantes centradas en su análisis y detección. Una cuestión central, en cualquier caso, sigue persistiendo: cómo conseguir que una persona no consuma o circule una información que está personalmente interesado en creer, por encima de cualquier sistema de verificación, porque coincide con su visión del mundo.

Hablar del tema, en cualquier caso, ayuda a generar una cierta conciencia: no, quien te envía esos mensajes a través de un grupo de WhatsApp no es necesariamente alguien interesado en tu bienestar, sino muy posiblemente, el fruto de un esquema de manipulación diseñado para esparcir un bulo determinado de manera interesada. La manipulación masiva recurriendo a herramientas como WhatsApp se ha convertido en algo tangible y demostrable, lo que nos obliga a tomarnos cada cosa que recibamos a través de ese canal y que tenga capacidad para trascender a cambios en nuestra forma de ver la sociedad con el más que nunca necesario grano de sal. Cuando leas o cuentes algo, piensa que si la única referencia que tienes es “me lo pasaron por WhatsApp” o “lo leí en WhatsApp”, es muy posible que sea un bulo.

 

IMAGE: Typography images - CC0 Creative Commons Con las redes sociales habituales y la publicidad bajo intenso control y escrutinio en los procesos electorales de cada vez más países del mundo, se multiplican las evidencias que apuntan a que los interesados en la manipulación de los ciudadanos están orientando cada vez más sus esfuerzos hacia una nueva herramienta, teóricamente más personal y sobre la que resulta mucho más difícil ejercer un control efectivo: la mensajería instantánea.

Diseñada inicialmente como medio de interacción personal, para conversaciones entre conocidos, la mensajería instantánea ha evolucionado para convertirse, en muchos casos, en una herramienta grupal a través de la que circulan y se difunden todo tipo de mensajes. Tras el papel aparentemente destacado de Facebook Messenger en la difusión de rumores y mensajes de odio racial en la crisis humanitaria de los Rohingya en Myanmar en 2017, Facebook ha decidido introducir opciones que permiten a los usuarios reportar conversaciones a través de la herramienta, con categorías como acoso, discurso de odio o suicidio, en un intento por ejercer un mayor nivel de control sobre una herramienta que, como tal, no es propiamente una red social, sino un canal de comunicación que ha excedido los límites de lo que originalmente era la comunicación interpersonal.

En el mismo sentido, algunos artículos apuntan al papel central que WhatsApp parece estar jugando en la campaña electoral de las próximas elecciones indias: una gran cantidad de grupos con elevados niveles de popularidad, partidos creando infraestructuras en las que sus miembros se responsabilizan de influenciar el voto de determinados grupos de personas, y difusión de mensajes que, por hallarse en principio dentro de un canal restringido a la comunicación privada, pueden exceder el tono o evitar el control que en principio se ejerce sobre la propaganda electoral o los mensajes de campaña tradicionales. En la práctica, una forma de tratar de influenciar el voto indeciso mediante una herramienta cuyas conversaciones discurren en un entorno cifrado al que ni siquiera la propia compañía tiene acceso, y que por tanto tendría necesariamente que partir de la propia denuncia del receptor del mensaje de cara a posibles acciones de control.

Cada vez son más las personas que consideran los grupos de mensajería instantánea como foros en los que reciben y comentan noticias de todo tipo. En realidad, como todo contexto social, hablamos de un canal a través del que pueden plantearse y escalarse acciones de ingeniería social, con el problema de que, en este caso, el control es todavía más difícil que en el caso de las redes sociales tradicionales. Grupos en los que habitualmente existe un contacto personal con algunos de los miembros, que típicamente reflejan y amplifican las creencias de sus participantes, y en los que los interesados en llevar a cabo procesos de manipulación pueden introducirse de manera relativamente sencilla, circular noticias falsas o mensajes inflamatorios, y poner en práctica todo tipo de técnicas de ingeniería social. Mientras en una red social resulta relativamente sencillo, para el gestor de la red, evaluar la difusión o el alcance de una campaña o acción publicitaria, en una red de mensajería instantánea este tipo de acciones de evaluación podrían resultar prácticamente imposibles.

La solución a este tipo de procesos no está, me temo, en un control de los canales que, en casos como el de la mensajería instantánea, se antoja prácticamente imposible. La solución hay que buscarla a más largo plazo, casi generacional, mediante procesos que, introducidos en la educación, ayuden a la creación de criterio, a la generación de prácticas como la verificación de fuentes, la depuración de mensajes, el contraste o el reconocimiento de procesos de manipulación: solo una sociedad que se prepare adecuadamente contra este tipo de procesos de intoxicación colectiva puede considerarse madura a la hora de desenvolverse en la era de unos medios sociales que han sido vistos por muchos como una auténtica oportunidad. Tras la experiencia de unas elecciones norteamericanas convertidas en prueba máxima, y previamente ensayadas en múltiples procesos electorales en otros países, ahora llega la enésima edición: la introducción en la ecuación de las herramientas de mensajería instantánea: algunos usuarios en India afirman estar expuestos a mensajes de contenido político prácticamente cada minuto, con contenidos que van desde las puras soflamas hasta las encuestas falsas con intención de dinamizar el voto, en un contexto en el que, además, el refuerzo social se construye en base a personas conocidas, a familiares o a amigos, lo que dificulta un eventual abandono del grupo. Un proceso que, mucho me temo, solo puede ir a más, y en el que las acciones de control se antojan sumamente complejas. La única solución es llevar a cabo más trabajo de información, más advertencias, más esfuerzos por evitar que los ciudadanos consideren un único canal como fuente infalible de conocimiento, en un proceso en el que muchos no creen aquello que tiene más sentido o más posibilidades de ser verdad, sino simplemente aquello que refuerza sus tesis o sus creencias. Y en este sentido, las herramientas de mensajería instantánea podrían estar convirtiéndose en toda un arma de manipulación masiva con importantes posibilidades de cara a próximos procesos electorales.

Nada es más fácil que manipular a aquel que prácticamente busca ser manipulado.

 

IMAGE: E. DansUn artículo en The Atlantic, The era of fake video begins, subraya el problema que surge cuando el desarrollo del machine learning hace perfectamente posible crear vídeos manipulados en los que se puede obtener prácticamente cualquier efecto, desde insertar una cabeza en un cuerpo de otra persona con un nivel de perfección que convierte el cambio en prácticamente imperceptible, hasta cambiar el movimiento de los labios de un personaje y su voz para que parezca que dice algo que no ha dicho, pasando por cambiar el tiempo o pasar del día a la noche.

Es el mundo del deepfake, término creado por la fusión de deep learning y fake, y popularizado por el primer usuario que creó un canal para subir vídeos de ese tipo: la posibilidad de, con herramientas relativamente sencillas, manipular o alterar la realidad para que se ajuste a lo que alguien pretende, sea un vídeo porno con su actriz favorita, un político diciendo algo que no dijo, o cualquier otro tipo de invención que, en realidad nunca tuvo lugar, pero se hace parecer perfectamente real y recogida en vídeo. A partir del momento en que las herramientas son suficientemente sencillas, cualquiera con tiempo e interés puede hacerlo, y la tarea se convierte en algo similar a contar con un asistente prácticamente perfecto que corrige los detalles fotograma a fotograma. Algunas páginas han prohibido su uso, pero en otras, particularmente pornográficas, es fácil encontrar secciones enteras de deepfakes, de vídeos creados por usuarios en los que se utilizan este tipo de técnicas, con resultados, en muchos casos, perfectamente creíbles o muy difíciles de detectar para un observador casual o no entrenado.

¿Qué ocurre en un mundo en el que la tecnología avanza para crear realidades inventadas que no podemos creer aunque las estemos viendo con nuestros propios ojos? ¿Qué consecuencias puede tener que podamos ver un vídeo porno protagonizado por quien nosotros queramos, poner a un político a decir la frase que estimemos oportuna, o falsear cualquier otro detalle de cualquier tipo? El problema de las fake news, la invención de titulares y noticias falsas destinadas a su difusión, pasa a tener una nueva dimensión: ahora no solo se trata de creer o no a la fuente, sino al material audiovisual que viene con ella. Desde posibles problemas reputacionales a crisis de imagen o simple entretenimiento, generados tecnológicamente de una manera tal que convierte en sumamente difícil diferenciar la ficción de la realidad. Puedes no haber rodado un vídeo pornográfico en tu vida, no haber estado jamás en un sitio o no haber dicho nunca una frase determinada, pero eso ya no es obstáculo para que tu imagen sea distribuida apareciendo en un vídeo pornográfico, en un sitio en el que no has estado, o diciendo algo que nunca has dicho.

Como en toda caída de barreras de entrada, se generan espacios de muy difícil definición. Desde un punto de vista estrictamente legal, las consecuencias parecen claras. Pero si añadimos una capacidad para crear este tipo de vídeos completamente distribuida y herramientas para darles una difusión masiva mucho antes de que nadie pueda reaccionar, ese desarrollo legal que supuestamente protege al afectado se convierte en prácticamente irrelevante, porque cuando es capaz de reaccionar, el daño, en muchos casos, ya está hecho, y las imágenes no pueden ser borradas de los cerebros de quienes han sido expuestos a ellas. El valor de un vídeo, de algo que presuntamente sucede ante nuestros ojos, reducido a la de documento que casi cualquiera con cierta habilidad puede crear y manipular, prácticamente sin límites. Toda una necesidad de reeducar a una sociedad no preparada para ello y hacerles entender que aquello que sus ojos están viendo no tiene por qué haber sucedido realmente, y no es necesariamente producto de una maquinaria sofisticada o cinematográfica de efectos especiales, sino que puede haber sigo creado por casi cualquiera.

Curioso mundo este…

 

IMAGE: Chris Dorney - 123RFMi columna en El Español de esta semana, titulada “Elecciones y manipulación” (pdf) trata de recoger y poner en contexto algunas de las noticias más recientes que se van divulgando sobre la investigación del fiscal especial Robert Mueller acerca de la relación entre la campaña electoral de Donald Trump y el gobierno ruso.

Todo indica que lo que en un primer momento se apuntó como teorías aparentemente aventuradas y conspiranoicas estaban no solo en lo cierto, sino que incluso subestimaban lo que realmente llegó a ocurrir. Ahora sabemos que el gobierno ruso, aprovechando el hecho de que cada vez más norteamericanos se informaban y formaban su opinión con noticias que leían en las redes sociales, no solo llevó a cabo múltiples campañas en Facebook  y en Twitter con anuncios que exacerbaban deliberadamente determinados aspectos de la política, como el supremacismo blanco o el odio a lo extranjero, a niveles que se creían completamente superados en los Estados Unidos, sino que además, puso en marcha toda una maquinaria de producción de noticias falsas que pudo alcanzar hasta a setenta millones de norteamericanos, creó cientos de perfiles inventados de supuestos norteamericanos y supuestos grupos activistas dispuestos a difundirlas y a entrar en discusiones sobre el tema y obtuvo y difundió a través de las redes sociales documentos verdaderos y falsos sobre la campaña de los demócratas. Sabemos que algunos asesores de Barack Obama, expertos en el uso de redes sociales para sus dos campañas electorales, detectaron algunos de estos patrones e incluso llegaron a advertir a Facebook sobre esta cuestión, para encontrarse con que la compañía minimizaba su posible impacto.

Ahora los norteamericano saben, aunque aún no hayan llegado a darse cuenta totalmente de lo que supone, que no tuvieron en realidad una campaña electoral, sino un auténtico reality show producido desde Rusia en el que la imagen de los candidatos fue manipulada de manera constante, en el que se generaron estados de opinión completamente desbocados y radicalizados a golpe de intervenciones en las redes sociales, para dar lugar finalmente al desenlace que muy pocos esperaban, pero que estaba inicialmente planeado: la llegada de Donald Trump a la Casa Blanca. Una maniobra política con un nivel de intensidad sin precedentes, ensayado previamente en procesos electorales de varias ex-repúblicas soviéticas, y que fue capaz de manipular con éxito las elecciones del país hasta entonces más poderoso del mundo.

Obviamente, una maniobra así no solo se apoya en las redes sociales. Para que tuviese éxito, fue necesaria una combinación de factores que incluyó una adversaria política demócrata co escaso carisma y que daba el desenlace como cosa hecha porque creía enfrentarse a un candidato sin ninguna esperanza racional de ser elegido, una serie de cuestiones larvadas en torno a la amenaza terrorista y al miedo a lo extranjero susceptibles de ser exageradas y exacerbadas hasta el infinito, un movimiento racista o supremacista que nunca llegó a desaparecer del todo y que se mantenía, aunque de manera relativamente discreta, en determinados estratos sociales, y una estructura de colegio electoral que llevó a que el voto popular terminase por no tener, en realidad, ninguna importancia. Con esos ingredientes, un buen uso de las redes sociales fue capaz de generar un nivel de virulencia brutal que dio lugar a la campaña más polarizada, agria y exagerada en sus debates de la historia reciente norteamericana, generar un auténtico río revuelto para ganancia de un pescador determinado.

Ahora, la investigación de Robert Mueller comienza a cerrarse en torno a la Casa Blanca, y a revelar la verdadera magnitud de lo que tuvo lugar durante la campaña electoral de las últimas elecciones presidenciales norteamericanas: la manipulación de millones de ingenuos electores norteamericanos que, como en un auténtico reality show en el que se escogen cuidadosamente las tomas y los cortes, terminaron por dejar en la casa de Gran Hermano al ganador más inesperado, más peligroso y menos recomendable.

 

IMAGE: Sviatlana Zykava - 123RFLa política en los tiempos de las redes sociales ha adquirido muy extraños derroteros. En países no democráticos, como China, el régimen dedica más personas a la eliminación y manipulación de contenidos en las redes sociales que a su enorme ejército: una parte significativa de la población se dedica, en su día a día, a un trabajo tan digno del Ministerio de la Verdad de Orwell como fabricar una realidad alternativa para el resto de sus conciudadanos, eliminando toda participación anónima, crítica o considerada no aceptable, e insertando opiniones laudatorias hacia el gobierno en foros, redes y periódicos utilizando múltiples cuentas para simular un apoyo masivo.

En Rusia, la realidad no es muy diferente: miles de trolls, bots y cuentas falsas dedican su día a día a proteger el liderazgo de Vladimir Putin y a manipular el panorama político a su favor. Un conjunto de herramientas y técnicas de automatización de la desinformación que el régimen depuró con experimentos en varias ex-repúblicas soviéticas y que, de manera ahora ya oficialmente demostrada, utilizó en las últimas elecciones presidenciales norteamericanas.

Facebook reconoce que unas 470 cuentas con identidades falsas y que pueden ser identificadas como radicadas en Rusia formaron parte de una estrategia coordinada y planificada para invertir unos 100,000 dólares en más de tres mil anuncios en la plataforma sobre cuestiones polémicas y asuntos que generaban una fuerte polarización, unidos a una amplia variedad de cuentas falsas de supuestos ciudadanos norteamericanos que insertaban, diseminaban, compartían y comentaban esos anuncios. El alcance potencial de esos anuncios se estima en unos setenta millones de ciudadanos norteamericanos, que podrían haberse concentrado en aquellos estados con más posibilidad de resultar estratégicos, y haber contribuido a la que sin duda fue la campaña más polarizada y agrias de la historia del país, durante la que volvieron a discutirse asuntos que se consideraban superados desde hacía décadas. Es perfectamente posible que muchas de las personas que acudieron a votar lo hiciesen manipuladas por mensajes incendiarios que estaban siendo insertados artificialmente en las redes sociales en las que se informaban por un esfuerzo coordinado por la inteligencia de una potencia extranjera.

La hipótesis de la manipulación rusa de las elecciones norteamericanas que llevaron a la Casa Blanca a Donald Trump se confirma con datos concretos, aparece en Wikipedia, pasa a ser objeto de una investigación en el Senado, y parece validar lo que algunos, hasta el momento, consideraban teorías paranoicas. Una nueva manera de entender la política y la injerencia en los procesos electorales, diseñada y ensayada originalmente en países no democráticos, y trasladada posteriormente aplicando el aprendizaje obtenido para tratar de influenciar elecciones en otros países. Armas de manipulación masiva difíciles de detectar, con infinitas formas posibles, capaces de enfocarse en todo tipo de aspectos para generar distintos efectos en los períodos precios a los procesos electorales, y que sin duda veremos a partir de ahora en muchos países, no solo por el interés que pueda generar manipular sus elecciones, sino porque pueden ser utilizados como banco de pruebas para sofisticar más aún las técnicas utilizadas.

Estamos ante el ataque más sofisticado y complejo a la base de la democracia en toda su historia: países que utilizan las redes sociales de manera organizada y respondiendo a una estrategia concreta, para manipular y generar estados de opinión en procesos electorales de otros países. La manipulación política y de la opinión pública no es un fenómeno nuevo: en el pasado, los gobernantes de un país podían intentar servirse de medios de comunicación afines para generar determinados estados de opinión que pudiesen resultar favorables a sus intereses. Al perder influencia los medios tradicionales y pasar un número cada vez mayor de ciudadanos a informarse mediante las redes sociales, estas técnicas de manipulación han evolucionado, y han pasado a ser muchísimo más sofisticadas, a disfrazarse de ciudadanos normales, y a simular corrientes de opinión genuinas, estados de opinión supuestamente masivos creados mediante astroturfing, que parecen provenir de los propios ciudadanos y aspiran a convencer a otros que, por el momento, carecen de los filtros que aplicaban a los medios. Reconstruir esos filtros para detener esos ataques a distintos niveles, y evidenciarlos para que los ciudadanos aprendan a detectarlos, caracterizarlos y reconocerlos va a ser, seguramente, una de las tareas más complejas a las que históricamente se ha tenido que enfrentar la democracia.