IMAGE: SVG Sihl (CC0)Con las midterms norteamericanas a punto de consumarse y etiquetadas como cruciales, el Departamento de Justicia norteamericano acusa a Rusia de interferir en su proceso electoral a través del llamado Project Lakhta, consistente en la creación de miles de cuentas de correo electrónico y perfiles falsos en redes sociales que ocultaban su identidad utilizando VPNs, y pretendían ser activistas norteamericanos que generaban contenido en un amplio rango de temas destinados a generar división, tales como el control de las armas, las relaciones raciales o la inmigración. Las mismas tácticas (o parecidas) que llevaron a la Casa Blanca a Donald Trump, que en estas elecciones vuelve a ser el mayor anunciante en Facebook, siguen ejecutándose con muy leves variaciones.

Mientras, en Brasil, la desinformación se extiende sin freno a través de WhatsApp, una herramienta que utilizan constantemente 120 millones de brasileños, y la compañía afirma que tomará acciones legales contra quienes la utilicen para campañas de spam y desinformación electoral. Según las investigaciones preliminares, todo indica que el candidato ultraderechista Jair Bolsonaro ha tomado a Donald Trump como modelo y, en una campaña repleta de acusaciones de financiación ilegal, ha pagado a través de diferentes compañías a múltiples agencias de social media para enviar cientos de millones de mensajes con desinformación, rumores y noticias falsas a los smartphones de ciudadanos brasileños atacando a su oponente, Fernando Haddad.

En un estudio reciente sobre cien mil imágenes difundidas a través de WhatsApp durante la campaña electoral, más de la mitad contenían información falsa o manipulada. La campaña de WhatsApp llevada a cabo por Bolsonaro podría suponer hasta tres infracciones de la ley electoral brasileña, por implicar a compañías , que tienen prohibido realizar donaciones políticas, en la financiación de la operación, porque cualquier gasto electoral debe estar convenientemente registrado con los reguladores, y porque la compra masiva de listados de números de teléfono para distribuir mensajes es ilegal. Si se llega a demostrar que Bolsonaro se benefició de la masiva campaña, su candidatura podría ser cancelada, o en caso de haber sido ya elegido, podría ser destituido de la presidencia, pero existe un marcado escepticismo sobre las posibilidades de actuación de una legislación electoral que tiende a actuar de manera limitada y, habitualmente, muy tarde.

Las elecciones norteamericanas y brasileñas no son más que los últimos ejemplos de la que es, sin duda, la mayor crisis de la democracia en toda su historia: el uso de una herramienta tecnológica, las redes sociales y su capacidad para el micro-targeting, para manipular a los votantes mediante mensajes inflamatorios y noticias falsas. Toda campaña electoral consiste en tratar de convencer a los votantes para que dirijan su voto hacia una opción determinada, pero los elementos utilizados para ello tienen que estar dentro de unos límites razonables, y sobre todo, no incluir interferencias de países extranjeros o actividades directamente ilegales que vulneran la legislación electoral. En campaña valen muchas cosas, pero no puede valer todo, y no está en absoluto claro que las acciones de Facebook en su nueva war room estén realmente sirviendo de algo para detener esos procesos de manipulación.

La situación es completamente excepcional, y enormemente preocupante en cuanto a su trascendencia por lo que supone de amenaza a la forma de gobierno de la mayoría de los países occidentales. Es sin duda algo que nos vamos a encontrar, repetido con escasas variaciones, en todo proceso electoral que venga a partir de ahora, en cada país, hasta poner a la democracia bajo una sombra de permanente sospecha. Es el momento de entender que situaciones excepcionales reclaman medidas excepcionales. Medidas que es temerario limitar únicamente a las soluciones que puedan proponer las propias compañías tecnológicas y de redes sociales, y que tienen necesariamente que incluir el dotar de dientes a la legislación electoral, la exclusión sumaria de todo candidato que recurra a este tipo de armas, y el control minucioso de la influencia extranjera en los procesos. La legislación electoral, sencillamente, ha demostrado no estar a la altura del escenario tecnológico actual, y resulta imprescindible lograr que pueda estarlo lo antes posible. ¿Está la democracia preparada para responder a un problema así, que cuestiona su propia esencia y naturaleza? Hasta el momento, no lo ha estado. Y las consecuencias están siendo gravísimas.

 

IMAGE: Wokandapix - Pixabay (CC0)Desde hace unos meses, India tiene un gravísimo problema con la difusión de noticias falsas a través, sobre todo, de grupos de WhatsApp, que han llevado ya a la muerte de varias decenas de personas debido a linchamientos provocados por rumores transmitidos a través de la app relacionados generalmente con el secuestro de niños, y que han llegado incluso a provocar el cierre total de la conectividad a internet durante 48 horas en el estado de Tripura.

WhatsApp tiene más de doscientos millones de usuarios en India, su mercado más importante en todo el mundo, y el pasado 3 de julio fue requerida por el gobierno para tomar acción inmediata y poner coto a la difusión de este tipo de rumores. La respuesta de la compañía fue clara: debido al cifrado de los mensajes en su plataforma, el control de los contenidos que circulan a través de su red es inviable, y es necesaria la acción colectiva de gobierno y ciudadanos para poder plantear soluciones que no serán tecnológicas, sino que deberán basarse necesariamente en más información y educación.

La respuesta de algunas escuelas de Kerala, un estado en el sur de la India, ha sido comenzar a introducir en sus clases contenidos relacionados con las fake news y su transmisión, con la idea de educar a los niños para evitar que se crean y compartan todo aquello que les llega a través de las redes sociales. Los contenidos inciden en la definición de fake news y las precauciones que deben tomarse para aprender a reconocerlas y no colaborar en su difusión, en un país en el que, para un porcentaje muy elevado de la población con un nivel cultural muy bajo, el smartphone se ha convertido en una de las fuentes de noticias que consideran más fiable, y en donde los grupos de WhatsApp destacan porque les permiten acceder a noticias enviadas por conocidos que, supuestamente, las comparten llevados por buenas intenciones.

El problema con la aproximación tomada por las escuelas de Kerala es que han diseñado una introducción de este contenido en el curriculum educativo con un esquema vertical: unos contenidos específicos, que se introducen en una asignatura, y se explican a los alumnos en ese contexto. La aproximación vertical es adecuada porque permite tomar una acción rápida, puede llevarse a cabo con cierta facilidad simplemente actuando sobre el temario de una asignatura y sobre sus profesores, y en ese sentido, puede ser interesante como intento inmediato de poner un problema bajo cierto nivel de control, como forma de paliar los efectos de un tema coyuntural, incluso intentando convertir a los niños en embajadores de la idea de cara a sus familias. Pero en realidad, para hacerlo de manera sostenible, el problema debería ser planteado de manera no vertical, sino horizontal: fomentar el desarrollo del pensamiento crítico en todas las asignaturas a nivel metodológico, como forma de aproximarse a los contenidos de cada una de ellas. Únicamente cuando enseñemos a los niños a hacerse cargo de su responsabilidad en la gestión de los contenidos, y cuando lo hagamos de manera horizontal, podremos pensar en tener una generación de jóvenes que sean capaces de entender los mecanismos de las redes sociales, los esquemas de difusión, y los posibles intereses en la difusión de rumores y la manipulación.

No lo olvidemos: la tecnología nos ha permitido crear un medio de comunicación sencillo y al alcance de todos, lo ha dotado de mecanismos que lo convierten en irresistiblemente atractivo, pero por alguna absurda razón relacionada con los mecanismos de adopción de la tecnología, hemos renunciado absurdamente a introducir en el proceso educativo la educación en su uso, limitándola a unas cuantas advertencias absurdas sobre su peligrosidad que los niños tienden naturalmente a desoír. No, la forma de preparar a los niños para que usen internet de forma segura no es llevar invitados a sus clases que les advierten sobre los “terribles peligros” de la red, sino utilizando la red en todas las asignaturas y convirtiendo las prácticas de seguridad en algo cotidiano. La mejor forma de educar el pensamiento crítico es con más tecnología, permitiendo que sean los propios estudiantes los que tengan la responsabilidad de encontrar la información adecuada para su educación en todas y cada una de las asignaturas, y monitorizando el proceso adecuadamente para enseñarles qué información es fiable y cuál no lo es en cada caso. Menos libros de texto, menos fuentes únicas de información habitualmente utilizadas para el adoctrinamiento, y más buscadores, más contraste de fuentes, más verificación y más procedimientos para encontrar la información que se necesita en cada momento o la que mejor les ayuda a entender un concepto, una idea o un procedimiento.

Las acciones verticales sobre el curriculum educativo son meramente coyunturales: pueden servir para llamar la atención sobre un tema o iniciar los esquemas necesarios para su eventual desarrollo. Pero la verdadera estrategia debe ser horizontal, metodológica y aplicada a todas las asignaturas del curriculum, a todos los niveles. Sin ese cambio de mentalidad en la educación, seguiremos teniendo una sociedad fácilmente manipulable a golpe de fake news.

 

IMAGE: Stuart Hampton - Pixabay (CC0)Según una reciente encuesta de Gallup y la Knight Foundation, el 85% de los norteamericanos piensan que las plataformas sociales no hacen suficiente para combatir la difusión de las noticias falsas, y la mayoría adscriben a estas plataformas la responsabilidad sobre la veracidad del contenido.

Como ya he comentado en numerosas ocasiones, el problema de las noticias falsas no está en las plataformas sociales, sino en los usuarios, y concretamente, en su ausencia de pensamiento crítico. La falta de pensamiento crítico es lo que lleva a una persona a creerse una noticia simplemente “porque la ha visto en Facebook”, porque “le ha llegado por WhatsApp” o porque “es el primer resultado en Google”, del mismo modo que el deseo de obtener notoriedad o apreciación social es lo que le lleva no solo a creérsela, sino además, a compartirla con sus amigos. En la práctica, lo que un porcentaje elevadísimo de norteamericanos están diciendo con esta encuesta no es ni más ni menos que “somos demasiado estúpidos para usar internet, y demandamos a las plataformas sociales que nos protejan”.

No, el problema no son las noticias falsas, y las plataformas sociales no pueden proteger a los usuarios de sí mismos. Proteger a alguien que es demasiado estúpido para protegerse a sí mismo es un problema, porque impide que Darwin actúe como debería. Durante toda la historia de la humanidad, hemos tenido herramientas que permitían que una persona accediese a información: hace años que disponemos de bibliotecas, pero como requerían de un cierto esfuerzo para informarse en ellas, mantenían suficientemente alejados de manera natural a los que eran demasiado estúpidos como para utilizarlas. Internet, sin embargo, pone toda la información a un clic de distancia de cualquier persona, y con ello, permite que cualquiera, incluso aquel que es demasiado estúpido como para racionalizar mínimamente lo que está leyendo, acceda a ella. En ese sentido, las redes sociales deberían evitar ser utilizadas como herramientas de manipulación masiva, deberían intentar identificar estrategias destinadas a promover la viralización de determinados mensajes y deberían, como ya están intentando hacer, tratar de eliminar mensajes que inciten a la violencia o al odio, pero no pueden – ni deben – convertirse en jueces de lo que circula por ellas. Son, simplemente, un canal, con algunas reglas que deberían ser lo más transparentes que sea posible. En gran medida, el papel de protegerse contra la desinformación, las noticias falsas o las estafas tiene que recaer, nos pongamos como nos pongamos, en los usuarios.

Una estafa es una estafa, y quien la lleva a cabo es un estafador. Y la ley cuenta con mecanismos para proteger a las personas de los estafadores, aunque pueda ser que la universalidad de internet convierta esa posible persecución en ocasiones en un verdadero reto. Pero ¿qué debemos hacer con el enésimo estúpido que responde a un correo electrónico de un supuesto dictador nigeriano que le pide sus datos bancarios porque le asegura que le va a transferir muchos miles de millones de dólares? ¿De verdad puede alguien pensar que la responsabilidad sobre eso corresponde a una herramienta de correo electrónico, a la compañía que la gestiona, o a la red social a través de la cual le llega ese mensaje? ¿No sería más correcto y factual asumir que esa persona era, sencillamente, demasiado estúpida como para utilizar internet? Lo que deberíamos hacer no es bramar contra internet y sus actores, sino, sin renunciar a perseguir, lógicamente, a quien lo haya estafado, intentar que ese usuario adquiera educación para que no vuelva a cometer errores de ese tipo, y entienda de una vez por todas que las cosas que son demasiado bonitas para ser verdad es, sencillamente… porque no son verdad.

La solución, lógicamente, no es intentar construir “una internet a prueba de estúpidos”, sino educar a los usuarios para que aprendan que no todo lo que leen en Facebook, lo que aparece como resultado en una búsqueda de Google o lo que les llega por WhatsApp es necesariamente cierto. El problema, por supuesto, es que para muchos, las mentiras más falaces y evidentes son ni más ni menos que lo que quieren creer, aquello de lo que han decidido convencerse a sí mismos o incluso, en muchos casos, de lo que aspiran a convencer a los demás: lo hemos visto en numerosas ocasiones, cuando una red social etiqueta una noticia como falsa, y miles de estúpidos corren a difundirla más aún, retroalimentada con eso de “lo que Facebook no quiere que leas”. Y las noticias falsas ni siquiera son patrimonio de internet o de las redes sociales: muchos medios tradicionales, como periódicos o televisiones, participan también en su difusión, en busca de la noticia fácil, de la generación de atención a toda costa, o, por qué no, intentando crear estados de opinión en el público que consideren coherentes con su línea editorial. Lo único que internet y las redes sociales han hecho es disminuir las barreras de entrada a la publicación: ahora, cualquiera puede convertirse en un medio de comunicación, del mismo modo que cualquiera con suficientes medios puede simular una audiencia de cierto tamaño que se escandaliza con un tema determinado o que aparenta un fuerte apoyo a unas ciertas tesis.

Pedir a las redes sociales que sean transparentes con respecto a sus procedimientos, que intenten impedir procesos de manipulación o que intenten limitar la difusión de mensajes que inciten al odio puede ser adecuado. Pero centrar el problema de las noticias falsas en el canal es un grave error, porque la gran verdad es que la verdadera responsabilidad está en los usuarios. Podremos, a lo largo de una generación y si nos ponemos seriamente a ello, construir sistemas educativos que se centren en reforzar el pensamiento crítico, que no tomen como verdad nada por el simple hecho de que esté escrito en un libro, en una pantalla o que lo hayamos visto en un vídeo. Pero negar la responsabilidad del usuario es como obligarnos a etiquetar un microondas con una pegatina de “no lo utilice para secar a su mascota” por si a algún imbécil se le ocurre meter a su gato dentro y después, además, va y nos denuncia: un recordatorio permanente de que algunas personas son demasiado estúpidas ya no para usar un microondas, sino para vivir en sociedad. Y por supuesto, para usar internet.

 

Guerra digital - Cambio

Lucía Burbano, de la revista mexicana Cambio, me envió algunas preguntas por correo electrónico acerca del fenómeno de las fake news y sus cada vez más habituales usos organizados, y ha incluido una parte de ellas en su artículo titulado “Guerra digital” (ver en pdf), publicado hace una semana.

Hablamos sobre el uso de este tipo de herramientas de desinformación en esferas militares o en la política, de las posibilidades que tenemos para diferencias noticias verdaderas de noticias falsas en un entorno en el que las barreras a la publicación descienden para todos, del papel de los llamados verificadores o fact-checkers y de la responsabilidad de las propias redes sociales, del uso creciente de bots y herramientas basadas en inteligencia artificial, y de la necesidad de desarrollar el pensamiento crítico a través de la enseñanza para intentar enfrentarnos a esta problemática en el futuro.

Precisamente hoy aparecen noticias sobre el gobierno indio que, ante la escalada de linchamientos y palizas a ciudadanos inocentes derivados de rumores maliciosos difundidos a través de WhatsApp en determinadas zonas rurales (que incluso llegaron a provocar, en algunos casos, la suspensión temporal del acceso a internet en regiones completas), reclama a la compañía que detenga estos rumores, como si realmente fuese el papel de un canal de comunicación decidir sobre la veracidad o falsedad de las conversaciones que se desarrollan a su través. ¿Pediría seriamente ese ministro a una compañía telefónica que detuviese las conversaciones entre sus abonados “si dicen mentiras”? Basta con esa comparación para entender la barbaridad de la que estamos hablando: WhatsApp no solo es un canal de comunicación equivalente a una compañía telefónica, sino que, además, gestiona la información que se intercambia a su través con protocolos robustos de cifrado, con claves de un solo uso que ni siquiera la propia compañía conoce, lo que convierte en prácticamente imposible cualquier tipo de monitorización preventiva. La compañía podrá intentar colaborar, pero realmente, el problema únicamente se puede solucionar, y no de manera completa, cuando se incida en el desarrollo del pensamiento crítico desde las primeras etapas de la educación, con campañas de información o con mensajes que inviten a la población a comprobar la veracidad de sus fuentes.

A continuación, siguiendo mi práctica habitual, el texto completo del cuestionario que intercambié con Lucía:

P. ¿Es la propaganda digital una continuación de los métodos empleados tradicionalmente en el ejército y la política? O las características de la red (velocidad y facilidad para compartir un mensaje, omisión de fuentes o falta de verificación de las mismas) hace que cuando hablamos de la manipulación intencionada del mensaje, este sea más peligroso?

R. En realidad, hablamos del aprovechamiento de una vulnerabilidad de nuestra sociedad: hemos desarrollado una serie de herramientas, las redes sociales, que cuentan con sus propios códigos y mecanismos para remunerar la participación, tales como Likes, comentarios y número de seguidores, pero hemos renunciado a educar a la sociedad en su uso. Durante generaciones, hemos acostumbrado a la sociedad a que si algo estaba en letra impresa o salía en televisión, era confiable, y ahora nos encontramos con un descenso brutal en las barreras de entrada a la publicación, con un porcentaje cada vez más elevado de personas que acceden a las noticias a través de herramientas como Facebook o Twitter, y con una indefensión de una sociedad que nunca ha desarrollado el pensamiento crítico. Las redes sociales pueden desarrollar mecanismos para intentar mejorar la situación, pero la gran realidad es que el problema solo se solucionará generacionalmente, y únicamente si incorporamos en la educación mecanismos para desarrollar el pensamiento crítico, la comprobación de fuentes, la verificación de información, etc. que a día de hoy, únicamente se enseñan en las facultades de periodismo.

 

P. Las líneas entre una noticia verdadera y una falsa están cada vez más difuminadas. ¿Cómo podemos distinguirlas para evitar que la manipulación o desinformación gobiernen las decisiones del ciudadano/votante? ¿Somos inmunes a la manipulación? ¿O el componente subjetivo y emocional de muchos de los debates e informaciones falsas que se comparten en la red es tan elevado que estamos perdiendo la capacidad de ser más críticos?

R. Cuando las barreras de entrada a la publicación descienden drásticamente, el papel de la credibilidad y la reputación de las fuentes crece. En general, tenemos que aprender a desarrollar el pensamiento crítico, lo que implica verificar la fuente, tratar de localizar referencias adicionales, contrastar con otras fuentes, etc. El problema es que desde nuestra educación más básica, partimos de contarle a los niños que “la verdad” está en las páginas de un libro, en una única fuente, y eso lleva a que no dominen herramientas como la búsqueda, y tiendan a quedarse, por ejemplo, sistemáticamente con el primer resultado de Google, sin más reflexión. Tendríamos que prohibir los libros de texto, introducir el smartphone en el aula, y pedir a los niños que buscasen los contenidos en la red, para así educarles en estrategias de búsqueda, cualificación de fuentes y desarrollo de pensamiento crítico. Esa modificación de la enseñanza resulta cada vez más importante, y un auténtico reto que tenemos como sociedad.

 

P. Existen varios servicios o sitios web que identifican las noticias e informaciones que son falsas. ¿Cómo funcionan y son la solución?

R. Los fact-checkers o verificadores son una buena solución, pero lamentablemente, dado que trabajan con personas, tienden a ser lentos, válidos para una verificación con perspectiva o para parar la difusión de un rumor, pero no para evitar que se inicie o que se difunda durante un tiempo. Su importancia es creciente, pero no sustituyen al desarrollo de un juicio o pensamiento crítico.

 

P. Dado que las redes sociales y otras plataformas cuentan con un número de usuarios superior al de cualquier medio de comunicación tradicional o digital, ¿deberían estas empresas monitorear, eliminar o sancionar de forma más exhaustiva a los usuarios que propagan la desinformación o que generan cuentan falsas?

R. Las redes sociales pueden llevar a cabo muchas acciones correctoras, como controlar, por ejemplo, la difusión de rumores, falsedades, o mensajes relacionados con el discurso del odio. Sin embargo, es peligroso confiar en las acciones de estas compañías, dado que hacerlo equivale a ponerlas en una posición de árbitros que no les debería corresponder, y menos cuando hablamos de cuestiones que tienen que ver con el pensamiento o la opinión. Obviamente, las compañías que gestionan las redes sociales deberían evitar acciones coordinadas o comportamientos marcadamente antisociales, como deberían evitar la difamación, la calumnia o el libelo, pero eso no es tan sencillo como parece en un entorno social. Del mismo modo que no podemos controlar lo que una persona le dice a otra en la barra de un bar, resulta difícil pensar que podamos hacerlo con todas las comunicaciones en redes sociales: habrá que diferenciar el ámbito y el tipo de comunicación, la intencionalidad, la escala a la que se produce y, sobre todo, educar a la sociedad en el uso de su herramienta, con todo lo que ello conlleva.

 

P. ¿Cuándo empezaron a emplearse la Inteligencia Artificial y los algoritmos para crear bots? ¿Por qué son estos tan dañinos y no se contrarrestan con las mismas armas?

R. Los bots no son necesariamente dañinos. Hay bots muy útiles, muy interesantes, y estarán en nuestra vida en el futuro con total seguridad: muchas de nuestras interacciones a lo largo del día tendrán un chatbot o bot conversacional al otro lado. Lo que puede ser dañino es el uso de la tecnología para crear bots que simulen usuarios reales: es un fraude, supone un problema de gestión para las compañías que gestionan las redes o para las que se anuncian en ellas, y nos pone en una situación similar a la de la película Blade Runner, con compañías desarrollando bots fraudulentos y otras compañías tratando de detectarlos mediante todo tipo de tecnologías basadas en machine learning e inteligencia artificial. Al principio, los bots eran simples cuentas que seguían a un usuario,. Cuando se las empezó a descartar por inactivas, empezaron a desarrollar pautas de actividad más o menos aleatorias, como seguir a otros usuarios, retuitear o dar Like a algunas publicaciones, etc. Ahora, su actividad es cada vez más difícil de prever, y por tanto, son más difíciles de identificar. Eso supone una “escalada armamentística” en el desarrollo de machine learning cuyo resultado no es fácil de prever.

 

P. Algunos de estos mensajes se propagan desde los propios gobiernos con el fin de desestabilizar procesos electorales en otros países. Aunque las injerencias políticas no son nada nuevo, dado que el sector digital se mueve más rápido que el sistema legal, ¿nos encontramos ante una nueva tipología de crisis diplomática?

R. Sin duda, es un arma que muchos estados están utilizando, unos con más escrúpulos que otros, y que habría que tratar como un problema serio. Que un presidente de los Estados Unidos se comporte como un troll impresentable y carente de todo sentido común en las redes sociales es mucho más que una anécdota, supone un problema serio, y debería llevarnos a revisar las reglas de la diplomacia. Que algunos países consideren razonable atacar las infraestructuras de otros o lanzar campañas de manipulación a través de la red supone algo muy serio, que es preciso elevar al estatus de conflicto internacional, y apelar a los foros más importantes en este ámbito.

 

P. Pensando en clave futuro, ¿la propaganda digital va a seguir creciendo y evolucionando o entrarán en escena mecanismos de censura o filtros que diluyan su presencia?

R. La propaganda digital y las fake news persistirán hasta que, como sociedad, seamos capaces de desarrollar mecanismos de pensamiento y razonamiento crítico, de introducirlos en el curriculum educativo y de convertirlos en un cimiento de la interacción social.

 

WhatsApp fake newsA medida que la tecnología, el periodismo, los gobiernos y una gama cada vez más amplia de actores intentan buscar soluciones contra la difusión de noticias falsas en redes sociales, más nos vamos dando cuenta de que, en realidad, el problema se debe a una ausencia de educación en el uso de una herramienta que cuenta con potentes sistemas que incentivan la compartición, unido a una cultura en la que mecanismos como la verificación, el contraste de fuentes o el desarrollo del pensamiento crítico no forman parte aún del proceso educativo.

Podemos desarrollar infinidad de herramientas; sistemas de verificación, fact-checkers o algoritmos para intentar combatir la difusión de las llamadas fake news, pero en último término, cuando las barreras de entrada a la publicación y difusión bajan dramáticamente, resulta imposible evitar que una persona que está deseando creer algo participe en su difusión a muchas otras personas que, probablemente, piensan igual que ella. Las únicas soluciones verdaderamente sostenibles, seguramente, están relacionadas con el cambio del proceso educativo y el desarrollo de habilidades  en el conjunto de la sociedad.

En el medio de toda la polémica sobre la circulación de noticias falsas, surge un canal que no es estrictamente y como tal una red social, pero sí juega a menudo un papel similar: estrictamente, WhatsApp y los sistemas de mensajería instantánea son canales interpersonales de comunicación, pero cuando la comunicación se estructura en grupos y las personas se convierten en vectores que reenvían y circulan información entre esos grupos, lo que tenemos es, en realidad, un mecanismo perfecto para la difusión, que puede ser apalancado por cualquier interesado en la creación de estados de opinión.

Recientemente, en una de las regiones centrales de India, dos jóvenes que detuvieron su automóvil para pedir indicaciones fueron linchados por una multitud que creyó que eran, tal y como habían leído en un mensaje ampliamente difundido por WhatsApp, criminales que buscaban matar a personas para comerciar con sus órganos. El meteórico crecimiento de WhatsApp ha convertido la plataforma de mensajería en un canal perfecto por el que circulan bulos de todo tipo y que, al no ser un canal público, se convierte en una caja negra que dificulta sensiblemente las labores de seguimiento y verificación. Personas de toda condición que creen hacer un favor a sus compañeros de grupo alertándolos sobre supuestas “noticias” que informan sobre la elevación de la alerta terrorista, sobre un nuevo tipo de robo o estafa, sobre el tremendo peligro de unos supuestos smartphones explosivos abandonados en la calle o sobre teorías conspiranoicas de todo tipo, pero que también pueden ser adecuadamente instrumentalizados para difundir noticias con propósito de manipulación social o política.

La evolución de las tecnologías implicadas en la lucha contra las fake news puede verse de día en día. Desde servicios de verificación como Verificado (México), Maldito Bulo (España) o las ya veteranas Snopes o PolitiFact (Estados Unidos), hasta herramientas basadas en blockchain que etiquetan las noticias en el navegador. Para cada avance en el desarrollo de, por ejemplo, deep fakes en vídeo que permiten alterar secuencias o voces para hacerlas parecer genuinas (¿cómo no lo voy a creer y a circular, si lo he visto con mis propios ojos?), surgen startups con rondas de capital interesantes centradas en su análisis y detección. Una cuestión central, en cualquier caso, sigue persistiendo: cómo conseguir que una persona no consuma o circule una información que está personalmente interesado en creer, por encima de cualquier sistema de verificación, porque coincide con su visión del mundo.

Hablar del tema, en cualquier caso, ayuda a generar una cierta conciencia: no, quien te envía esos mensajes a través de un grupo de WhatsApp no es necesariamente alguien interesado en tu bienestar, sino muy posiblemente, el fruto de un esquema de manipulación diseñado para esparcir un bulo determinado de manera interesada. La manipulación masiva recurriendo a herramientas como WhatsApp se ha convertido en algo tangible y demostrable, lo que nos obliga a tomarnos cada cosa que recibamos a través de ese canal y que tenga capacidad para trascender a cambios en nuestra forma de ver la sociedad con el más que nunca necesario grano de sal. Cuando leas o cuentes algo, piensa que si la única referencia que tienes es “me lo pasaron por WhatsApp” o “lo leí en WhatsApp”, es muy posible que sea un bulo.