IMAGE: Stuart Hampton - Pixabay (CC0)Según una reciente encuesta de Gallup y la Knight Foundation, el 85% de los norteamericanos piensan que las plataformas sociales no hacen suficiente para combatir la difusión de las noticias falsas, y la mayoría adscriben a estas plataformas la responsabilidad sobre la veracidad del contenido.

Como ya he comentado en numerosas ocasiones, el problema de las noticias falsas no está en las plataformas sociales, sino en los usuarios, y concretamente, en su ausencia de pensamiento crítico. La falta de pensamiento crítico es lo que lleva a una persona a creerse una noticia simplemente “porque la ha visto en Facebook”, porque “le ha llegado por WhatsApp” o porque “es el primer resultado en Google”, del mismo modo que el deseo de obtener notoriedad o apreciación social es lo que le lleva no solo a creérsela, sino además, a compartirla con sus amigos. En la práctica, lo que un porcentaje elevadísimo de norteamericanos están diciendo con esta encuesta no es ni más ni menos que “somos demasiado estúpidos para usar internet, y demandamos a las plataformas sociales que nos protejan”.

No, el problema no son las noticias falsas, y las plataformas sociales no pueden proteger a los usuarios de sí mismos. Proteger a alguien que es demasiado estúpido para protegerse a sí mismo es un problema, porque impide que Darwin actúe como debería. Durante toda la historia de la humanidad, hemos tenido herramientas que permitían que una persona accediese a información: hace años que disponemos de bibliotecas, pero como requerían de un cierto esfuerzo para informarse en ellas, mantenían suficientemente alejados de manera natural a los que eran demasiado estúpidos como para utilizarlas. Internet, sin embargo, pone toda la información a un clic de distancia de cualquier persona, y con ello, permite que cualquiera, incluso aquel que es demasiado estúpido como para racionalizar mínimamente lo que está leyendo, acceda a ella. En ese sentido, las redes sociales deberían evitar ser utilizadas como herramientas de manipulación masiva, deberían intentar identificar estrategias destinadas a promover la viralización de determinados mensajes y deberían, como ya están intentando hacer, tratar de eliminar mensajes que inciten a la violencia o al odio, pero no pueden – ni deben – convertirse en jueces de lo que circula por ellas. Son, simplemente, un canal, con algunas reglas que deberían ser lo más transparentes que sea posible. En gran medida, el papel de protegerse contra la desinformación, las noticias falsas o las estafas tiene que recaer, nos pongamos como nos pongamos, en los usuarios.

Una estafa es una estafa, y quien la lleva a cabo es un estafador. Y la ley cuenta con mecanismos para proteger a las personas de los estafadores, aunque pueda ser que la universalidad de internet convierta esa posible persecución en ocasiones en un verdadero reto. Pero ¿qué debemos hacer con el enésimo estúpido que responde a un correo electrónico de un supuesto dictador nigeriano que le pide sus datos bancarios porque le asegura que le va a transferir muchos miles de millones de dólares? ¿De verdad puede alguien pensar que la responsabilidad sobre eso corresponde a una herramienta de correo electrónico, a la compañía que la gestiona, o a la red social a través de la cual le llega ese mensaje? ¿No sería más correcto y factual asumir que esa persona era, sencillamente, demasiado estúpida como para utilizar internet? Lo que deberíamos hacer no es bramar contra internet y sus actores, sino, sin renunciar a perseguir, lógicamente, a quien lo haya estafado, intentar que ese usuario adquiera educación para que no vuelva a cometer errores de ese tipo, y entienda de una vez por todas que las cosas que son demasiado bonitas para ser verdad es, sencillamente… porque no son verdad.

La solución, lógicamente, no es intentar construir “una internet a prueba de estúpidos”, sino educar a los usuarios para que aprendan que no todo lo que leen en Facebook, lo que aparece como resultado en una búsqueda de Google o lo que les llega por WhatsApp es necesariamente cierto. El problema, por supuesto, es que para muchos, las mentiras más falaces y evidentes son ni más ni menos que lo que quieren creer, aquello de lo que han decidido convencerse a sí mismos o incluso, en muchos casos, de lo que aspiran a convencer a los demás: lo hemos visto en numerosas ocasiones, cuando una red social etiqueta una noticia como falsa, y miles de estúpidos corren a difundirla más aún, retroalimentada con eso de “lo que Facebook no quiere que leas”. Y las noticias falsas ni siquiera son patrimonio de internet o de las redes sociales: muchos medios tradicionales, como periódicos o televisiones, participan también en su difusión, en busca de la noticia fácil, de la generación de atención a toda costa, o, por qué no, intentando crear estados de opinión en el público que consideren coherentes con su línea editorial. Lo único que internet y las redes sociales han hecho es disminuir las barreras de entrada a la publicación: ahora, cualquiera puede convertirse en un medio de comunicación, del mismo modo que cualquiera con suficientes medios puede simular una audiencia de cierto tamaño que se escandaliza con un tema determinado o que aparenta un fuerte apoyo a unas ciertas tesis.

Pedir a las redes sociales que sean transparentes con respecto a sus procedimientos, que intenten impedir procesos de manipulación o que intenten limitar la difusión de mensajes que inciten al odio puede ser adecuado. Pero centrar el problema de las noticias falsas en el canal es un grave error, porque la gran verdad es que la verdadera responsabilidad está en los usuarios. Podremos, a lo largo de una generación y si nos ponemos seriamente a ello, construir sistemas educativos que se centren en reforzar el pensamiento crítico, que no tomen como verdad nada por el simple hecho de que esté escrito en un libro, en una pantalla o que lo hayamos visto en un vídeo. Pero negar la responsabilidad del usuario es como obligarnos a etiquetar un microondas con una pegatina de “no lo utilice para secar a su mascota” por si a algún imbécil se le ocurre meter a su gato dentro y después, además, va y nos denuncia: un recordatorio permanente de que algunas personas son demasiado estúpidas ya no para usar un microondas, sino para vivir en sociedad. Y por supuesto, para usar internet.

 

IMAGE: CC BY-SA 3.0 Nick Youngson - Alpha Stock ImagesFacebook anuncia que ha descubierto y presuntamente desmantelado un intento de manipulación dirigido a las próximas elecciones norteamericanas a Congreso y Senado, un total de 32 páginas que, en lo que la compañía denomina un “comportamiento no auténtico coordinado”, habían publicado un total de 9,500 entradas de manera coordinada con 150 campañas publicitarias, con un gasto total de 11,000 dólares, y generando unos 30 eventos desde mayo de 2017. En total, unas 290,000 cuentas seguían al menos una de las páginas, orientadas fundamentalmente a fomentar el enfrentamiento en torno a temas raciales.

Sinceramente, creo que la denominación “coordinated unauthentic behavior” que Facebook otorga a este tipo de campañas de manipulación merece una cierta reflexión. Tengo pocas dudas de que el hecho de que un actor determinado se dedique a crear todo tipo de herramientas, páginas de diversos tipos, cuentas falsas para hacerlas crecer y parecer más importantes de lo que realmente son, campañas publicitarias extremadamente segmentadas para inflamar los ánimos de determinados colectivos, o eventos para crear conciencia de grupo en torno a ciertos temas supone, como tal, una amenaza a la democracia. Estoy seguro de que el hecho de que ese tipo de procesos de manipulación colectiva sean detenidos empleando para ello todos los medios posibles es algo positivo, un esfuerzo que vale la pena hacer, y un claro ejemplo de explotación maliciosa de una herramienta social. Permitir que ese tipo de actores siguiesen utilizando este tipo de metodologías para manipular el voto de los ciudadanos me parecería un desastre para la democracia, por mucho que algunos afirmen que la manipulación, en realidad, no es nada nuevo, que antes se llevaba a cabo mediante los medios de comunicación tradicionales o que cada uno es libre de dejarse influenciar por lo que buenamente quiera a la hora de decidir su voto.

Sin embargo, y a pesar del evidente interés de proteger la democracia frente a procesos de manipulación fraudulentos… ¿estamos seguros de que ese esfuerzo debe corresponder a compañías como Facebook, Twitter u otras que han sido precisamente protagonistas de esos primeros ejemplos claros de manipulación? ¿Realmente estamos en buenas manos si encargamos la protección de la democracia y su funcionamiento razonablemente genuino a este tipo de compañías? No me refiero a que no puedan hacerlo: sin duda, son las mejor situadas para detectar este tipo de fraudes o plantearse neutralizarlos, pero… ¿debe ser ese realmente el papel de las empresas privadas? Hablamos de compañías cada vez más poderosas, cuyo dominio no se ha visto prácticamente ni alterado por la reciente oleada regulatoria o intentos de control por parte de los gobiernos de distintos lugares del mundo, y cuyos objetivos corporativos se establecen en torno a magnitudes como el crecimiento, la facturación o los beneficios, no de elementos como la protección de la democracia o la preservación del equilibrio social. Ese tipo de objetivos corresponden, de manera natural, a las instituciones que la sociedad construye para supervisar su funcionamiento, a eso que denominamos administración y que se construye a distintos niveles, con unas ciertas reglas y sometida a un cierto equilibrio entre poderes y contrapoderes. Subcontratar esa vigilancia y supervisión a compañías privadas, y precisamente a las compañías que, con su previo historial de ingenuidad y falta de vigilancia, lo hicieron posible ya en una triste serie de ejemplos supone, a mi entender, un problema.

De nuevo: estas compañías, como creadoras y gestoras precisamente del sistema que los manipuladores utilizan para llevar a cabo sus campañas, están en la mejor situación para ser quienes patrullen y pongan bajo control esas iniciativas. Pero una buena parte de la coordinación de ese esfuerzo, seguramente, debería estar no tan solo a cargo de personas adscritas a esas compañías, sino de oficiales públicos dedicados a ejercer ese papel de refuerzo o garante de los procesos democráticos. Fundamentalmente, porque las compañías, y consecuentemente, las personas contratadas y pagadas por ellas, tienen otros objetivos prioritarios, y podrían hipotéticamente sostener múltiples tipos de conflictos de interés relacionados con esa función.

Por otro lado, diseñar una estructura que permitiese a oficiales públicos trabajar con las redes sociales para proteger la democracia podría suponer un nivel de supervisión y control que esas compañías no estuviesen dispuestas a aceptar, o ser visto como una posible injerencia del estamento político sobre la actividad de las empresas privadas. De hecho, en algunos países con democracias menos consolidadas, podría incluso terminar actuando al revés de lo esperado, como un organismo que se dedicase a impedir la expresión de movimientos políticos genuinos en las redes calificándolos como “comportamientos no auténticos coordinados”, al tiempo que se intentan proteger, por contra, los de las campañas organizadas por el gobierno de turno.

Sin duda, un problema multifactorial complejo, y una pregunta que queda en el aire: ¿a quién corresponde o debe corresponder, en plena era de la comunicación electrónica, las redes sociales y la ultrasegmentación, la protección de los procesos democráticos y la prevención de la manipulación masiva?

 

WhatsApp fake newsA medida que la tecnología, el periodismo, los gobiernos y una gama cada vez más amplia de actores intentan buscar soluciones contra la difusión de noticias falsas en redes sociales, más nos vamos dando cuenta de que, en realidad, el problema se debe a una ausencia de educación en el uso de una herramienta que cuenta con potentes sistemas que incentivan la compartición, unido a una cultura en la que mecanismos como la verificación, el contraste de fuentes o el desarrollo del pensamiento crítico no forman parte aún del proceso educativo.

Podemos desarrollar infinidad de herramientas; sistemas de verificación, fact-checkers o algoritmos para intentar combatir la difusión de las llamadas fake news, pero en último término, cuando las barreras de entrada a la publicación y difusión bajan dramáticamente, resulta imposible evitar que una persona que está deseando creer algo participe en su difusión a muchas otras personas que, probablemente, piensan igual que ella. Las únicas soluciones verdaderamente sostenibles, seguramente, están relacionadas con el cambio del proceso educativo y el desarrollo de habilidades  en el conjunto de la sociedad.

En el medio de toda la polémica sobre la circulación de noticias falsas, surge un canal que no es estrictamente y como tal una red social, pero sí juega a menudo un papel similar: estrictamente, WhatsApp y los sistemas de mensajería instantánea son canales interpersonales de comunicación, pero cuando la comunicación se estructura en grupos y las personas se convierten en vectores que reenvían y circulan información entre esos grupos, lo que tenemos es, en realidad, un mecanismo perfecto para la difusión, que puede ser apalancado por cualquier interesado en la creación de estados de opinión.

Recientemente, en una de las regiones centrales de India, dos jóvenes que detuvieron su automóvil para pedir indicaciones fueron linchados por una multitud que creyó que eran, tal y como habían leído en un mensaje ampliamente difundido por WhatsApp, criminales que buscaban matar a personas para comerciar con sus órganos. El meteórico crecimiento de WhatsApp ha convertido la plataforma de mensajería en un canal perfecto por el que circulan bulos de todo tipo y que, al no ser un canal público, se convierte en una caja negra que dificulta sensiblemente las labores de seguimiento y verificación. Personas de toda condición que creen hacer un favor a sus compañeros de grupo alertándolos sobre supuestas “noticias” que informan sobre la elevación de la alerta terrorista, sobre un nuevo tipo de robo o estafa, sobre el tremendo peligro de unos supuestos smartphones explosivos abandonados en la calle o sobre teorías conspiranoicas de todo tipo, pero que también pueden ser adecuadamente instrumentalizados para difundir noticias con propósito de manipulación social o política.

La evolución de las tecnologías implicadas en la lucha contra las fake news puede verse de día en día. Desde servicios de verificación como Verificado (México), Maldito Bulo (España) o las ya veteranas Snopes o PolitiFact (Estados Unidos), hasta herramientas basadas en blockchain que etiquetan las noticias en el navegador. Para cada avance en el desarrollo de, por ejemplo, deep fakes en vídeo que permiten alterar secuencias o voces para hacerlas parecer genuinas (¿cómo no lo voy a creer y a circular, si lo he visto con mis propios ojos?), surgen startups con rondas de capital interesantes centradas en su análisis y detección. Una cuestión central, en cualquier caso, sigue persistiendo: cómo conseguir que una persona no consuma o circule una información que está personalmente interesado en creer, por encima de cualquier sistema de verificación, porque coincide con su visión del mundo.

Hablar del tema, en cualquier caso, ayuda a generar una cierta conciencia: no, quien te envía esos mensajes a través de un grupo de WhatsApp no es necesariamente alguien interesado en tu bienestar, sino muy posiblemente, el fruto de un esquema de manipulación diseñado para esparcir un bulo determinado de manera interesada. La manipulación masiva recurriendo a herramientas como WhatsApp se ha convertido en algo tangible y demostrable, lo que nos obliga a tomarnos cada cosa que recibamos a través de ese canal y que tenga capacidad para trascender a cambios en nuestra forma de ver la sociedad con el más que nunca necesario grano de sal. Cuando leas o cuentes algo, piensa que si la única referencia que tienes es “me lo pasaron por WhatsApp” o “lo leí en WhatsApp”, es muy posible que sea un bulo.

 

IMAGE: Typography images - CC0 Creative Commons Con las redes sociales habituales y la publicidad bajo intenso control y escrutinio en los procesos electorales de cada vez más países del mundo, se multiplican las evidencias que apuntan a que los interesados en la manipulación de los ciudadanos están orientando cada vez más sus esfuerzos hacia una nueva herramienta, teóricamente más personal y sobre la que resulta mucho más difícil ejercer un control efectivo: la mensajería instantánea.

Diseñada inicialmente como medio de interacción personal, para conversaciones entre conocidos, la mensajería instantánea ha evolucionado para convertirse, en muchos casos, en una herramienta grupal a través de la que circulan y se difunden todo tipo de mensajes. Tras el papel aparentemente destacado de Facebook Messenger en la difusión de rumores y mensajes de odio racial en la crisis humanitaria de los Rohingya en Myanmar en 2017, Facebook ha decidido introducir opciones que permiten a los usuarios reportar conversaciones a través de la herramienta, con categorías como acoso, discurso de odio o suicidio, en un intento por ejercer un mayor nivel de control sobre una herramienta que, como tal, no es propiamente una red social, sino un canal de comunicación que ha excedido los límites de lo que originalmente era la comunicación interpersonal.

En el mismo sentido, algunos artículos apuntan al papel central que WhatsApp parece estar jugando en la campaña electoral de las próximas elecciones indias: una gran cantidad de grupos con elevados niveles de popularidad, partidos creando infraestructuras en las que sus miembros se responsabilizan de influenciar el voto de determinados grupos de personas, y difusión de mensajes que, por hallarse en principio dentro de un canal restringido a la comunicación privada, pueden exceder el tono o evitar el control que en principio se ejerce sobre la propaganda electoral o los mensajes de campaña tradicionales. En la práctica, una forma de tratar de influenciar el voto indeciso mediante una herramienta cuyas conversaciones discurren en un entorno cifrado al que ni siquiera la propia compañía tiene acceso, y que por tanto tendría necesariamente que partir de la propia denuncia del receptor del mensaje de cara a posibles acciones de control.

Cada vez son más las personas que consideran los grupos de mensajería instantánea como foros en los que reciben y comentan noticias de todo tipo. En realidad, como todo contexto social, hablamos de un canal a través del que pueden plantearse y escalarse acciones de ingeniería social, con el problema de que, en este caso, el control es todavía más difícil que en el caso de las redes sociales tradicionales. Grupos en los que habitualmente existe un contacto personal con algunos de los miembros, que típicamente reflejan y amplifican las creencias de sus participantes, y en los que los interesados en llevar a cabo procesos de manipulación pueden introducirse de manera relativamente sencilla, circular noticias falsas o mensajes inflamatorios, y poner en práctica todo tipo de técnicas de ingeniería social. Mientras en una red social resulta relativamente sencillo, para el gestor de la red, evaluar la difusión o el alcance de una campaña o acción publicitaria, en una red de mensajería instantánea este tipo de acciones de evaluación podrían resultar prácticamente imposibles.

La solución a este tipo de procesos no está, me temo, en un control de los canales que, en casos como el de la mensajería instantánea, se antoja prácticamente imposible. La solución hay que buscarla a más largo plazo, casi generacional, mediante procesos que, introducidos en la educación, ayuden a la creación de criterio, a la generación de prácticas como la verificación de fuentes, la depuración de mensajes, el contraste o el reconocimiento de procesos de manipulación: solo una sociedad que se prepare adecuadamente contra este tipo de procesos de intoxicación colectiva puede considerarse madura a la hora de desenvolverse en la era de unos medios sociales que han sido vistos por muchos como una auténtica oportunidad. Tras la experiencia de unas elecciones norteamericanas convertidas en prueba máxima, y previamente ensayadas en múltiples procesos electorales en otros países, ahora llega la enésima edición: la introducción en la ecuación de las herramientas de mensajería instantánea: algunos usuarios en India afirman estar expuestos a mensajes de contenido político prácticamente cada minuto, con contenidos que van desde las puras soflamas hasta las encuestas falsas con intención de dinamizar el voto, en un contexto en el que, además, el refuerzo social se construye en base a personas conocidas, a familiares o a amigos, lo que dificulta un eventual abandono del grupo. Un proceso que, mucho me temo, solo puede ir a más, y en el que las acciones de control se antojan sumamente complejas. La única solución es llevar a cabo más trabajo de información, más advertencias, más esfuerzos por evitar que los ciudadanos consideren un único canal como fuente infalible de conocimiento, en un proceso en el que muchos no creen aquello que tiene más sentido o más posibilidades de ser verdad, sino simplemente aquello que refuerza sus tesis o sus creencias. Y en este sentido, las herramientas de mensajería instantánea podrían estar convirtiéndose en toda un arma de manipulación masiva con importantes posibilidades de cara a próximos procesos electorales.

Nada es más fácil que manipular a aquel que prácticamente busca ser manipulado.

 

IMAGE: E. DansUn artículo en The Atlantic, The era of fake video begins, subraya el problema que surge cuando el desarrollo del machine learning hace perfectamente posible crear vídeos manipulados en los que se puede obtener prácticamente cualquier efecto, desde insertar una cabeza en un cuerpo de otra persona con un nivel de perfección que convierte el cambio en prácticamente imperceptible, hasta cambiar el movimiento de los labios de un personaje y su voz para que parezca que dice algo que no ha dicho, pasando por cambiar el tiempo o pasar del día a la noche.

Es el mundo del deepfake, término creado por la fusión de deep learning y fake, y popularizado por el primer usuario que creó un canal para subir vídeos de ese tipo: la posibilidad de, con herramientas relativamente sencillas, manipular o alterar la realidad para que se ajuste a lo que alguien pretende, sea un vídeo porno con su actriz favorita, un político diciendo algo que no dijo, o cualquier otro tipo de invención que, en realidad nunca tuvo lugar, pero se hace parecer perfectamente real y recogida en vídeo. A partir del momento en que las herramientas son suficientemente sencillas, cualquiera con tiempo e interés puede hacerlo, y la tarea se convierte en algo similar a contar con un asistente prácticamente perfecto que corrige los detalles fotograma a fotograma. Algunas páginas han prohibido su uso, pero en otras, particularmente pornográficas, es fácil encontrar secciones enteras de deepfakes, de vídeos creados por usuarios en los que se utilizan este tipo de técnicas, con resultados, en muchos casos, perfectamente creíbles o muy difíciles de detectar para un observador casual o no entrenado.

¿Qué ocurre en un mundo en el que la tecnología avanza para crear realidades inventadas que no podemos creer aunque las estemos viendo con nuestros propios ojos? ¿Qué consecuencias puede tener que podamos ver un vídeo porno protagonizado por quien nosotros queramos, poner a un político a decir la frase que estimemos oportuna, o falsear cualquier otro detalle de cualquier tipo? El problema de las fake news, la invención de titulares y noticias falsas destinadas a su difusión, pasa a tener una nueva dimensión: ahora no solo se trata de creer o no a la fuente, sino al material audiovisual que viene con ella. Desde posibles problemas reputacionales a crisis de imagen o simple entretenimiento, generados tecnológicamente de una manera tal que convierte en sumamente difícil diferenciar la ficción de la realidad. Puedes no haber rodado un vídeo pornográfico en tu vida, no haber estado jamás en un sitio o no haber dicho nunca una frase determinada, pero eso ya no es obstáculo para que tu imagen sea distribuida apareciendo en un vídeo pornográfico, en un sitio en el que no has estado, o diciendo algo que nunca has dicho.

Como en toda caída de barreras de entrada, se generan espacios de muy difícil definición. Desde un punto de vista estrictamente legal, las consecuencias parecen claras. Pero si añadimos una capacidad para crear este tipo de vídeos completamente distribuida y herramientas para darles una difusión masiva mucho antes de que nadie pueda reaccionar, ese desarrollo legal que supuestamente protege al afectado se convierte en prácticamente irrelevante, porque cuando es capaz de reaccionar, el daño, en muchos casos, ya está hecho, y las imágenes no pueden ser borradas de los cerebros de quienes han sido expuestos a ellas. El valor de un vídeo, de algo que presuntamente sucede ante nuestros ojos, reducido a la de documento que casi cualquiera con cierta habilidad puede crear y manipular, prácticamente sin límites. Toda una necesidad de reeducar a una sociedad no preparada para ello y hacerles entender que aquello que sus ojos están viendo no tiene por qué haber sucedido realmente, y no es necesariamente producto de una maquinaria sofisticada o cinematográfica de efectos especiales, sino que puede haber sigo creado por casi cualquiera.

Curioso mundo este…