IMAGE: Wokandapix - Pixabay (CC0)Desde hace unos meses, India tiene un gravísimo problema con la difusión de noticias falsas a través, sobre todo, de grupos de WhatsApp, que han llevado ya a la muerte de varias decenas de personas debido a linchamientos provocados por rumores transmitidos a través de la app relacionados generalmente con el secuestro de niños, y que han llegado incluso a provocar el cierre total de la conectividad a internet durante 48 horas en el estado de Tripura.

WhatsApp tiene más de doscientos millones de usuarios en India, su mercado más importante en todo el mundo, y el pasado 3 de julio fue requerida por el gobierno para tomar acción inmediata y poner coto a la difusión de este tipo de rumores. La respuesta de la compañía fue clara: debido al cifrado de los mensajes en su plataforma, el control de los contenidos que circulan a través de su red es inviable, y es necesaria la acción colectiva de gobierno y ciudadanos para poder plantear soluciones que no serán tecnológicas, sino que deberán basarse necesariamente en más información y educación.

La respuesta de algunas escuelas de Kerala, un estado en el sur de la India, ha sido comenzar a introducir en sus clases contenidos relacionados con las fake news y su transmisión, con la idea de educar a los niños para evitar que se crean y compartan todo aquello que les llega a través de las redes sociales. Los contenidos inciden en la definición de fake news y las precauciones que deben tomarse para aprender a reconocerlas y no colaborar en su difusión, en un país en el que, para un porcentaje muy elevado de la población con un nivel cultural muy bajo, el smartphone se ha convertido en una de las fuentes de noticias que consideran más fiable, y en donde los grupos de WhatsApp destacan porque les permiten acceder a noticias enviadas por conocidos que, supuestamente, las comparten llevados por buenas intenciones.

El problema con la aproximación tomada por las escuelas de Kerala es que han diseñado una introducción de este contenido en el curriculum educativo con un esquema vertical: unos contenidos específicos, que se introducen en una asignatura, y se explican a los alumnos en ese contexto. La aproximación vertical es adecuada porque permite tomar una acción rápida, puede llevarse a cabo con cierta facilidad simplemente actuando sobre el temario de una asignatura y sobre sus profesores, y en ese sentido, puede ser interesante como intento inmediato de poner un problema bajo cierto nivel de control, como forma de paliar los efectos de un tema coyuntural, incluso intentando convertir a los niños en embajadores de la idea de cara a sus familias. Pero en realidad, para hacerlo de manera sostenible, el problema debería ser planteado de manera no vertical, sino horizontal: fomentar el desarrollo del pensamiento crítico en todas las asignaturas a nivel metodológico, como forma de aproximarse a los contenidos de cada una de ellas. Únicamente cuando enseñemos a los niños a hacerse cargo de su responsabilidad en la gestión de los contenidos, y cuando lo hagamos de manera horizontal, podremos pensar en tener una generación de jóvenes que sean capaces de entender los mecanismos de las redes sociales, los esquemas de difusión, y los posibles intereses en la difusión de rumores y la manipulación.

No lo olvidemos: la tecnología nos ha permitido crear un medio de comunicación sencillo y al alcance de todos, lo ha dotado de mecanismos que lo convierten en irresistiblemente atractivo, pero por alguna absurda razón relacionada con los mecanismos de adopción de la tecnología, hemos renunciado absurdamente a introducir en el proceso educativo la educación en su uso, limitándola a unas cuantas advertencias absurdas sobre su peligrosidad que los niños tienden naturalmente a desoír. No, la forma de preparar a los niños para que usen internet de forma segura no es llevar invitados a sus clases que les advierten sobre los “terribles peligros” de la red, sino utilizando la red en todas las asignaturas y convirtiendo las prácticas de seguridad en algo cotidiano. La mejor forma de educar el pensamiento crítico es con más tecnología, permitiendo que sean los propios estudiantes los que tengan la responsabilidad de encontrar la información adecuada para su educación en todas y cada una de las asignaturas, y monitorizando el proceso adecuadamente para enseñarles qué información es fiable y cuál no lo es en cada caso. Menos libros de texto, menos fuentes únicas de información habitualmente utilizadas para el adoctrinamiento, y más buscadores, más contraste de fuentes, más verificación y más procedimientos para encontrar la información que se necesita en cada momento o la que mejor les ayuda a entender un concepto, una idea o un procedimiento.

Las acciones verticales sobre el curriculum educativo son meramente coyunturales: pueden servir para llamar la atención sobre un tema o iniciar los esquemas necesarios para su eventual desarrollo. Pero la verdadera estrategia debe ser horizontal, metodológica y aplicada a todas las asignaturas del curriculum, a todos los niveles. Sin ese cambio de mentalidad en la educación, seguiremos teniendo una sociedad fácilmente manipulable a golpe de fake news.

 

IMAGE: Stuart Hampton - Pixabay (CC0)Según una reciente encuesta de Gallup y la Knight Foundation, el 85% de los norteamericanos piensan que las plataformas sociales no hacen suficiente para combatir la difusión de las noticias falsas, y la mayoría adscriben a estas plataformas la responsabilidad sobre la veracidad del contenido.

Como ya he comentado en numerosas ocasiones, el problema de las noticias falsas no está en las plataformas sociales, sino en los usuarios, y concretamente, en su ausencia de pensamiento crítico. La falta de pensamiento crítico es lo que lleva a una persona a creerse una noticia simplemente “porque la ha visto en Facebook”, porque “le ha llegado por WhatsApp” o porque “es el primer resultado en Google”, del mismo modo que el deseo de obtener notoriedad o apreciación social es lo que le lleva no solo a creérsela, sino además, a compartirla con sus amigos. En la práctica, lo que un porcentaje elevadísimo de norteamericanos están diciendo con esta encuesta no es ni más ni menos que “somos demasiado estúpidos para usar internet, y demandamos a las plataformas sociales que nos protejan”.

No, el problema no son las noticias falsas, y las plataformas sociales no pueden proteger a los usuarios de sí mismos. Proteger a alguien que es demasiado estúpido para protegerse a sí mismo es un problema, porque impide que Darwin actúe como debería. Durante toda la historia de la humanidad, hemos tenido herramientas que permitían que una persona accediese a información: hace años que disponemos de bibliotecas, pero como requerían de un cierto esfuerzo para informarse en ellas, mantenían suficientemente alejados de manera natural a los que eran demasiado estúpidos como para utilizarlas. Internet, sin embargo, pone toda la información a un clic de distancia de cualquier persona, y con ello, permite que cualquiera, incluso aquel que es demasiado estúpido como para racionalizar mínimamente lo que está leyendo, acceda a ella. En ese sentido, las redes sociales deberían evitar ser utilizadas como herramientas de manipulación masiva, deberían intentar identificar estrategias destinadas a promover la viralización de determinados mensajes y deberían, como ya están intentando hacer, tratar de eliminar mensajes que inciten a la violencia o al odio, pero no pueden – ni deben – convertirse en jueces de lo que circula por ellas. Son, simplemente, un canal, con algunas reglas que deberían ser lo más transparentes que sea posible. En gran medida, el papel de protegerse contra la desinformación, las noticias falsas o las estafas tiene que recaer, nos pongamos como nos pongamos, en los usuarios.

Una estafa es una estafa, y quien la lleva a cabo es un estafador. Y la ley cuenta con mecanismos para proteger a las personas de los estafadores, aunque pueda ser que la universalidad de internet convierta esa posible persecución en ocasiones en un verdadero reto. Pero ¿qué debemos hacer con el enésimo estúpido que responde a un correo electrónico de un supuesto dictador nigeriano que le pide sus datos bancarios porque le asegura que le va a transferir muchos miles de millones de dólares? ¿De verdad puede alguien pensar que la responsabilidad sobre eso corresponde a una herramienta de correo electrónico, a la compañía que la gestiona, o a la red social a través de la cual le llega ese mensaje? ¿No sería más correcto y factual asumir que esa persona era, sencillamente, demasiado estúpida como para utilizar internet? Lo que deberíamos hacer no es bramar contra internet y sus actores, sino, sin renunciar a perseguir, lógicamente, a quien lo haya estafado, intentar que ese usuario adquiera educación para que no vuelva a cometer errores de ese tipo, y entienda de una vez por todas que las cosas que son demasiado bonitas para ser verdad es, sencillamente… porque no son verdad.

La solución, lógicamente, no es intentar construir “una internet a prueba de estúpidos”, sino educar a los usuarios para que aprendan que no todo lo que leen en Facebook, lo que aparece como resultado en una búsqueda de Google o lo que les llega por WhatsApp es necesariamente cierto. El problema, por supuesto, es que para muchos, las mentiras más falaces y evidentes son ni más ni menos que lo que quieren creer, aquello de lo que han decidido convencerse a sí mismos o incluso, en muchos casos, de lo que aspiran a convencer a los demás: lo hemos visto en numerosas ocasiones, cuando una red social etiqueta una noticia como falsa, y miles de estúpidos corren a difundirla más aún, retroalimentada con eso de “lo que Facebook no quiere que leas”. Y las noticias falsas ni siquiera son patrimonio de internet o de las redes sociales: muchos medios tradicionales, como periódicos o televisiones, participan también en su difusión, en busca de la noticia fácil, de la generación de atención a toda costa, o, por qué no, intentando crear estados de opinión en el público que consideren coherentes con su línea editorial. Lo único que internet y las redes sociales han hecho es disminuir las barreras de entrada a la publicación: ahora, cualquiera puede convertirse en un medio de comunicación, del mismo modo que cualquiera con suficientes medios puede simular una audiencia de cierto tamaño que se escandaliza con un tema determinado o que aparenta un fuerte apoyo a unas ciertas tesis.

Pedir a las redes sociales que sean transparentes con respecto a sus procedimientos, que intenten impedir procesos de manipulación o que intenten limitar la difusión de mensajes que inciten al odio puede ser adecuado. Pero centrar el problema de las noticias falsas en el canal es un grave error, porque la gran verdad es que la verdadera responsabilidad está en los usuarios. Podremos, a lo largo de una generación y si nos ponemos seriamente a ello, construir sistemas educativos que se centren en reforzar el pensamiento crítico, que no tomen como verdad nada por el simple hecho de que esté escrito en un libro, en una pantalla o que lo hayamos visto en un vídeo. Pero negar la responsabilidad del usuario es como obligarnos a etiquetar un microondas con una pegatina de “no lo utilice para secar a su mascota” por si a algún imbécil se le ocurre meter a su gato dentro y después, además, va y nos denuncia: un recordatorio permanente de que algunas personas son demasiado estúpidas ya no para usar un microondas, sino para vivir en sociedad. Y por supuesto, para usar internet.

 

Guerra digital - Cambio

Lucía Burbano, de la revista mexicana Cambio, me envió algunas preguntas por correo electrónico acerca del fenómeno de las fake news y sus cada vez más habituales usos organizados, y ha incluido una parte de ellas en su artículo titulado “Guerra digital” (ver en pdf), publicado hace una semana.

Hablamos sobre el uso de este tipo de herramientas de desinformación en esferas militares o en la política, de las posibilidades que tenemos para diferencias noticias verdaderas de noticias falsas en un entorno en el que las barreras a la publicación descienden para todos, del papel de los llamados verificadores o fact-checkers y de la responsabilidad de las propias redes sociales, del uso creciente de bots y herramientas basadas en inteligencia artificial, y de la necesidad de desarrollar el pensamiento crítico a través de la enseñanza para intentar enfrentarnos a esta problemática en el futuro.

Precisamente hoy aparecen noticias sobre el gobierno indio que, ante la escalada de linchamientos y palizas a ciudadanos inocentes derivados de rumores maliciosos difundidos a través de WhatsApp en determinadas zonas rurales (que incluso llegaron a provocar, en algunos casos, la suspensión temporal del acceso a internet en regiones completas), reclama a la compañía que detenga estos rumores, como si realmente fuese el papel de un canal de comunicación decidir sobre la veracidad o falsedad de las conversaciones que se desarrollan a su través. ¿Pediría seriamente ese ministro a una compañía telefónica que detuviese las conversaciones entre sus abonados “si dicen mentiras”? Basta con esa comparación para entender la barbaridad de la que estamos hablando: WhatsApp no solo es un canal de comunicación equivalente a una compañía telefónica, sino que, además, gestiona la información que se intercambia a su través con protocolos robustos de cifrado, con claves de un solo uso que ni siquiera la propia compañía conoce, lo que convierte en prácticamente imposible cualquier tipo de monitorización preventiva. La compañía podrá intentar colaborar, pero realmente, el problema únicamente se puede solucionar, y no de manera completa, cuando se incida en el desarrollo del pensamiento crítico desde las primeras etapas de la educación, con campañas de información o con mensajes que inviten a la población a comprobar la veracidad de sus fuentes.

A continuación, siguiendo mi práctica habitual, el texto completo del cuestionario que intercambié con Lucía:

P. ¿Es la propaganda digital una continuación de los métodos empleados tradicionalmente en el ejército y la política? O las características de la red (velocidad y facilidad para compartir un mensaje, omisión de fuentes o falta de verificación de las mismas) hace que cuando hablamos de la manipulación intencionada del mensaje, este sea más peligroso?

R. En realidad, hablamos del aprovechamiento de una vulnerabilidad de nuestra sociedad: hemos desarrollado una serie de herramientas, las redes sociales, que cuentan con sus propios códigos y mecanismos para remunerar la participación, tales como Likes, comentarios y número de seguidores, pero hemos renunciado a educar a la sociedad en su uso. Durante generaciones, hemos acostumbrado a la sociedad a que si algo estaba en letra impresa o salía en televisión, era confiable, y ahora nos encontramos con un descenso brutal en las barreras de entrada a la publicación, con un porcentaje cada vez más elevado de personas que acceden a las noticias a través de herramientas como Facebook o Twitter, y con una indefensión de una sociedad que nunca ha desarrollado el pensamiento crítico. Las redes sociales pueden desarrollar mecanismos para intentar mejorar la situación, pero la gran realidad es que el problema solo se solucionará generacionalmente, y únicamente si incorporamos en la educación mecanismos para desarrollar el pensamiento crítico, la comprobación de fuentes, la verificación de información, etc. que a día de hoy, únicamente se enseñan en las facultades de periodismo.

 

P. Las líneas entre una noticia verdadera y una falsa están cada vez más difuminadas. ¿Cómo podemos distinguirlas para evitar que la manipulación o desinformación gobiernen las decisiones del ciudadano/votante? ¿Somos inmunes a la manipulación? ¿O el componente subjetivo y emocional de muchos de los debates e informaciones falsas que se comparten en la red es tan elevado que estamos perdiendo la capacidad de ser más críticos?

R. Cuando las barreras de entrada a la publicación descienden drásticamente, el papel de la credibilidad y la reputación de las fuentes crece. En general, tenemos que aprender a desarrollar el pensamiento crítico, lo que implica verificar la fuente, tratar de localizar referencias adicionales, contrastar con otras fuentes, etc. El problema es que desde nuestra educación más básica, partimos de contarle a los niños que “la verdad” está en las páginas de un libro, en una única fuente, y eso lleva a que no dominen herramientas como la búsqueda, y tiendan a quedarse, por ejemplo, sistemáticamente con el primer resultado de Google, sin más reflexión. Tendríamos que prohibir los libros de texto, introducir el smartphone en el aula, y pedir a los niños que buscasen los contenidos en la red, para así educarles en estrategias de búsqueda, cualificación de fuentes y desarrollo de pensamiento crítico. Esa modificación de la enseñanza resulta cada vez más importante, y un auténtico reto que tenemos como sociedad.

 

P. Existen varios servicios o sitios web que identifican las noticias e informaciones que son falsas. ¿Cómo funcionan y son la solución?

R. Los fact-checkers o verificadores son una buena solución, pero lamentablemente, dado que trabajan con personas, tienden a ser lentos, válidos para una verificación con perspectiva o para parar la difusión de un rumor, pero no para evitar que se inicie o que se difunda durante un tiempo. Su importancia es creciente, pero no sustituyen al desarrollo de un juicio o pensamiento crítico.

 

P. Dado que las redes sociales y otras plataformas cuentan con un número de usuarios superior al de cualquier medio de comunicación tradicional o digital, ¿deberían estas empresas monitorear, eliminar o sancionar de forma más exhaustiva a los usuarios que propagan la desinformación o que generan cuentan falsas?

R. Las redes sociales pueden llevar a cabo muchas acciones correctoras, como controlar, por ejemplo, la difusión de rumores, falsedades, o mensajes relacionados con el discurso del odio. Sin embargo, es peligroso confiar en las acciones de estas compañías, dado que hacerlo equivale a ponerlas en una posición de árbitros que no les debería corresponder, y menos cuando hablamos de cuestiones que tienen que ver con el pensamiento o la opinión. Obviamente, las compañías que gestionan las redes sociales deberían evitar acciones coordinadas o comportamientos marcadamente antisociales, como deberían evitar la difamación, la calumnia o el libelo, pero eso no es tan sencillo como parece en un entorno social. Del mismo modo que no podemos controlar lo que una persona le dice a otra en la barra de un bar, resulta difícil pensar que podamos hacerlo con todas las comunicaciones en redes sociales: habrá que diferenciar el ámbito y el tipo de comunicación, la intencionalidad, la escala a la que se produce y, sobre todo, educar a la sociedad en el uso de su herramienta, con todo lo que ello conlleva.

 

P. ¿Cuándo empezaron a emplearse la Inteligencia Artificial y los algoritmos para crear bots? ¿Por qué son estos tan dañinos y no se contrarrestan con las mismas armas?

R. Los bots no son necesariamente dañinos. Hay bots muy útiles, muy interesantes, y estarán en nuestra vida en el futuro con total seguridad: muchas de nuestras interacciones a lo largo del día tendrán un chatbot o bot conversacional al otro lado. Lo que puede ser dañino es el uso de la tecnología para crear bots que simulen usuarios reales: es un fraude, supone un problema de gestión para las compañías que gestionan las redes o para las que se anuncian en ellas, y nos pone en una situación similar a la de la película Blade Runner, con compañías desarrollando bots fraudulentos y otras compañías tratando de detectarlos mediante todo tipo de tecnologías basadas en machine learning e inteligencia artificial. Al principio, los bots eran simples cuentas que seguían a un usuario,. Cuando se las empezó a descartar por inactivas, empezaron a desarrollar pautas de actividad más o menos aleatorias, como seguir a otros usuarios, retuitear o dar Like a algunas publicaciones, etc. Ahora, su actividad es cada vez más difícil de prever, y por tanto, son más difíciles de identificar. Eso supone una “escalada armamentística” en el desarrollo de machine learning cuyo resultado no es fácil de prever.

 

P. Algunos de estos mensajes se propagan desde los propios gobiernos con el fin de desestabilizar procesos electorales en otros países. Aunque las injerencias políticas no son nada nuevo, dado que el sector digital se mueve más rápido que el sistema legal, ¿nos encontramos ante una nueva tipología de crisis diplomática?

R. Sin duda, es un arma que muchos estados están utilizando, unos con más escrúpulos que otros, y que habría que tratar como un problema serio. Que un presidente de los Estados Unidos se comporte como un troll impresentable y carente de todo sentido común en las redes sociales es mucho más que una anécdota, supone un problema serio, y debería llevarnos a revisar las reglas de la diplomacia. Que algunos países consideren razonable atacar las infraestructuras de otros o lanzar campañas de manipulación a través de la red supone algo muy serio, que es preciso elevar al estatus de conflicto internacional, y apelar a los foros más importantes en este ámbito.

 

P. Pensando en clave futuro, ¿la propaganda digital va a seguir creciendo y evolucionando o entrarán en escena mecanismos de censura o filtros que diluyan su presencia?

R. La propaganda digital y las fake news persistirán hasta que, como sociedad, seamos capaces de desarrollar mecanismos de pensamiento y razonamiento crítico, de introducirlos en el curriculum educativo y de convertirlos en un cimiento de la interacción social.

 

WhatsApp fake newsA medida que la tecnología, el periodismo, los gobiernos y una gama cada vez más amplia de actores intentan buscar soluciones contra la difusión de noticias falsas en redes sociales, más nos vamos dando cuenta de que, en realidad, el problema se debe a una ausencia de educación en el uso de una herramienta que cuenta con potentes sistemas que incentivan la compartición, unido a una cultura en la que mecanismos como la verificación, el contraste de fuentes o el desarrollo del pensamiento crítico no forman parte aún del proceso educativo.

Podemos desarrollar infinidad de herramientas; sistemas de verificación, fact-checkers o algoritmos para intentar combatir la difusión de las llamadas fake news, pero en último término, cuando las barreras de entrada a la publicación y difusión bajan dramáticamente, resulta imposible evitar que una persona que está deseando creer algo participe en su difusión a muchas otras personas que, probablemente, piensan igual que ella. Las únicas soluciones verdaderamente sostenibles, seguramente, están relacionadas con el cambio del proceso educativo y el desarrollo de habilidades  en el conjunto de la sociedad.

En el medio de toda la polémica sobre la circulación de noticias falsas, surge un canal que no es estrictamente y como tal una red social, pero sí juega a menudo un papel similar: estrictamente, WhatsApp y los sistemas de mensajería instantánea son canales interpersonales de comunicación, pero cuando la comunicación se estructura en grupos y las personas se convierten en vectores que reenvían y circulan información entre esos grupos, lo que tenemos es, en realidad, un mecanismo perfecto para la difusión, que puede ser apalancado por cualquier interesado en la creación de estados de opinión.

Recientemente, en una de las regiones centrales de India, dos jóvenes que detuvieron su automóvil para pedir indicaciones fueron linchados por una multitud que creyó que eran, tal y como habían leído en un mensaje ampliamente difundido por WhatsApp, criminales que buscaban matar a personas para comerciar con sus órganos. El meteórico crecimiento de WhatsApp ha convertido la plataforma de mensajería en un canal perfecto por el que circulan bulos de todo tipo y que, al no ser un canal público, se convierte en una caja negra que dificulta sensiblemente las labores de seguimiento y verificación. Personas de toda condición que creen hacer un favor a sus compañeros de grupo alertándolos sobre supuestas “noticias” que informan sobre la elevación de la alerta terrorista, sobre un nuevo tipo de robo o estafa, sobre el tremendo peligro de unos supuestos smartphones explosivos abandonados en la calle o sobre teorías conspiranoicas de todo tipo, pero que también pueden ser adecuadamente instrumentalizados para difundir noticias con propósito de manipulación social o política.

La evolución de las tecnologías implicadas en la lucha contra las fake news puede verse de día en día. Desde servicios de verificación como Verificado (México), Maldito Bulo (España) o las ya veteranas Snopes o PolitiFact (Estados Unidos), hasta herramientas basadas en blockchain que etiquetan las noticias en el navegador. Para cada avance en el desarrollo de, por ejemplo, deep fakes en vídeo que permiten alterar secuencias o voces para hacerlas parecer genuinas (¿cómo no lo voy a creer y a circular, si lo he visto con mis propios ojos?), surgen startups con rondas de capital interesantes centradas en su análisis y detección. Una cuestión central, en cualquier caso, sigue persistiendo: cómo conseguir que una persona no consuma o circule una información que está personalmente interesado en creer, por encima de cualquier sistema de verificación, porque coincide con su visión del mundo.

Hablar del tema, en cualquier caso, ayuda a generar una cierta conciencia: no, quien te envía esos mensajes a través de un grupo de WhatsApp no es necesariamente alguien interesado en tu bienestar, sino muy posiblemente, el fruto de un esquema de manipulación diseñado para esparcir un bulo determinado de manera interesada. La manipulación masiva recurriendo a herramientas como WhatsApp se ha convertido en algo tangible y demostrable, lo que nos obliga a tomarnos cada cosa que recibamos a través de ese canal y que tenga capacidad para trascender a cambios en nuestra forma de ver la sociedad con el más que nunca necesario grano de sal. Cuando leas o cuentes algo, piensa que si la única referencia que tienes es “me lo pasaron por WhatsApp” o “lo leí en WhatsApp”, es muy posible que sea un bulo.

 

IMAGE: Typography images - CC0 Creative Commons Con las redes sociales habituales y la publicidad bajo intenso control y escrutinio en los procesos electorales de cada vez más países del mundo, se multiplican las evidencias que apuntan a que los interesados en la manipulación de los ciudadanos están orientando cada vez más sus esfuerzos hacia una nueva herramienta, teóricamente más personal y sobre la que resulta mucho más difícil ejercer un control efectivo: la mensajería instantánea.

Diseñada inicialmente como medio de interacción personal, para conversaciones entre conocidos, la mensajería instantánea ha evolucionado para convertirse, en muchos casos, en una herramienta grupal a través de la que circulan y se difunden todo tipo de mensajes. Tras el papel aparentemente destacado de Facebook Messenger en la difusión de rumores y mensajes de odio racial en la crisis humanitaria de los Rohingya en Myanmar en 2017, Facebook ha decidido introducir opciones que permiten a los usuarios reportar conversaciones a través de la herramienta, con categorías como acoso, discurso de odio o suicidio, en un intento por ejercer un mayor nivel de control sobre una herramienta que, como tal, no es propiamente una red social, sino un canal de comunicación que ha excedido los límites de lo que originalmente era la comunicación interpersonal.

En el mismo sentido, algunos artículos apuntan al papel central que WhatsApp parece estar jugando en la campaña electoral de las próximas elecciones indias: una gran cantidad de grupos con elevados niveles de popularidad, partidos creando infraestructuras en las que sus miembros se responsabilizan de influenciar el voto de determinados grupos de personas, y difusión de mensajes que, por hallarse en principio dentro de un canal restringido a la comunicación privada, pueden exceder el tono o evitar el control que en principio se ejerce sobre la propaganda electoral o los mensajes de campaña tradicionales. En la práctica, una forma de tratar de influenciar el voto indeciso mediante una herramienta cuyas conversaciones discurren en un entorno cifrado al que ni siquiera la propia compañía tiene acceso, y que por tanto tendría necesariamente que partir de la propia denuncia del receptor del mensaje de cara a posibles acciones de control.

Cada vez son más las personas que consideran los grupos de mensajería instantánea como foros en los que reciben y comentan noticias de todo tipo. En realidad, como todo contexto social, hablamos de un canal a través del que pueden plantearse y escalarse acciones de ingeniería social, con el problema de que, en este caso, el control es todavía más difícil que en el caso de las redes sociales tradicionales. Grupos en los que habitualmente existe un contacto personal con algunos de los miembros, que típicamente reflejan y amplifican las creencias de sus participantes, y en los que los interesados en llevar a cabo procesos de manipulación pueden introducirse de manera relativamente sencilla, circular noticias falsas o mensajes inflamatorios, y poner en práctica todo tipo de técnicas de ingeniería social. Mientras en una red social resulta relativamente sencillo, para el gestor de la red, evaluar la difusión o el alcance de una campaña o acción publicitaria, en una red de mensajería instantánea este tipo de acciones de evaluación podrían resultar prácticamente imposibles.

La solución a este tipo de procesos no está, me temo, en un control de los canales que, en casos como el de la mensajería instantánea, se antoja prácticamente imposible. La solución hay que buscarla a más largo plazo, casi generacional, mediante procesos que, introducidos en la educación, ayuden a la creación de criterio, a la generación de prácticas como la verificación de fuentes, la depuración de mensajes, el contraste o el reconocimiento de procesos de manipulación: solo una sociedad que se prepare adecuadamente contra este tipo de procesos de intoxicación colectiva puede considerarse madura a la hora de desenvolverse en la era de unos medios sociales que han sido vistos por muchos como una auténtica oportunidad. Tras la experiencia de unas elecciones norteamericanas convertidas en prueba máxima, y previamente ensayadas en múltiples procesos electorales en otros países, ahora llega la enésima edición: la introducción en la ecuación de las herramientas de mensajería instantánea: algunos usuarios en India afirman estar expuestos a mensajes de contenido político prácticamente cada minuto, con contenidos que van desde las puras soflamas hasta las encuestas falsas con intención de dinamizar el voto, en un contexto en el que, además, el refuerzo social se construye en base a personas conocidas, a familiares o a amigos, lo que dificulta un eventual abandono del grupo. Un proceso que, mucho me temo, solo puede ir a más, y en el que las acciones de control se antojan sumamente complejas. La única solución es llevar a cabo más trabajo de información, más advertencias, más esfuerzos por evitar que los ciudadanos consideren un único canal como fuente infalible de conocimiento, en un proceso en el que muchos no creen aquello que tiene más sentido o más posibilidades de ser verdad, sino simplemente aquello que refuerza sus tesis o sus creencias. Y en este sentido, las herramientas de mensajería instantánea podrían estar convirtiéndose en toda un arma de manipulación masiva con importantes posibilidades de cara a próximos procesos electorales.

Nada es más fácil que manipular a aquel que prácticamente busca ser manipulado.