Guerra digital - Cambio

Lucía Burbano, de la revista mexicana Cambio, me envió algunas preguntas por correo electrónico acerca del fenómeno de las fake news y sus cada vez más habituales usos organizados, y ha incluido una parte de ellas en su artículo titulado “Guerra digital” (ver en pdf), publicado hace una semana.

Hablamos sobre el uso de este tipo de herramientas de desinformación en esferas militares o en la política, de las posibilidades que tenemos para diferencias noticias verdaderas de noticias falsas en un entorno en el que las barreras a la publicación descienden para todos, del papel de los llamados verificadores o fact-checkers y de la responsabilidad de las propias redes sociales, del uso creciente de bots y herramientas basadas en inteligencia artificial, y de la necesidad de desarrollar el pensamiento crítico a través de la enseñanza para intentar enfrentarnos a esta problemática en el futuro.

Precisamente hoy aparecen noticias sobre el gobierno indio que, ante la escalada de linchamientos y palizas a ciudadanos inocentes derivados de rumores maliciosos difundidos a través de WhatsApp en determinadas zonas rurales (que incluso llegaron a provocar, en algunos casos, la suspensión temporal del acceso a internet en regiones completas), reclama a la compañía que detenga estos rumores, como si realmente fuese el papel de un canal de comunicación decidir sobre la veracidad o falsedad de las conversaciones que se desarrollan a su través. ¿Pediría seriamente ese ministro a una compañía telefónica que detuviese las conversaciones entre sus abonados “si dicen mentiras”? Basta con esa comparación para entender la barbaridad de la que estamos hablando: WhatsApp no solo es un canal de comunicación equivalente a una compañía telefónica, sino que, además, gestiona la información que se intercambia a su través con protocolos robustos de cifrado, con claves de un solo uso que ni siquiera la propia compañía conoce, lo que convierte en prácticamente imposible cualquier tipo de monitorización preventiva. La compañía podrá intentar colaborar, pero realmente, el problema únicamente se puede solucionar, y no de manera completa, cuando se incida en el desarrollo del pensamiento crítico desde las primeras etapas de la educación, con campañas de información o con mensajes que inviten a la población a comprobar la veracidad de sus fuentes.

A continuación, siguiendo mi práctica habitual, el texto completo del cuestionario que intercambié con Lucía:

P. ¿Es la propaganda digital una continuación de los métodos empleados tradicionalmente en el ejército y la política? O las características de la red (velocidad y facilidad para compartir un mensaje, omisión de fuentes o falta de verificación de las mismas) hace que cuando hablamos de la manipulación intencionada del mensaje, este sea más peligroso?

R. En realidad, hablamos del aprovechamiento de una vulnerabilidad de nuestra sociedad: hemos desarrollado una serie de herramientas, las redes sociales, que cuentan con sus propios códigos y mecanismos para remunerar la participación, tales como Likes, comentarios y número de seguidores, pero hemos renunciado a educar a la sociedad en su uso. Durante generaciones, hemos acostumbrado a la sociedad a que si algo estaba en letra impresa o salía en televisión, era confiable, y ahora nos encontramos con un descenso brutal en las barreras de entrada a la publicación, con un porcentaje cada vez más elevado de personas que acceden a las noticias a través de herramientas como Facebook o Twitter, y con una indefensión de una sociedad que nunca ha desarrollado el pensamiento crítico. Las redes sociales pueden desarrollar mecanismos para intentar mejorar la situación, pero la gran realidad es que el problema solo se solucionará generacionalmente, y únicamente si incorporamos en la educación mecanismos para desarrollar el pensamiento crítico, la comprobación de fuentes, la verificación de información, etc. que a día de hoy, únicamente se enseñan en las facultades de periodismo.

 

P. Las líneas entre una noticia verdadera y una falsa están cada vez más difuminadas. ¿Cómo podemos distinguirlas para evitar que la manipulación o desinformación gobiernen las decisiones del ciudadano/votante? ¿Somos inmunes a la manipulación? ¿O el componente subjetivo y emocional de muchos de los debates e informaciones falsas que se comparten en la red es tan elevado que estamos perdiendo la capacidad de ser más críticos?

R. Cuando las barreras de entrada a la publicación descienden drásticamente, el papel de la credibilidad y la reputación de las fuentes crece. En general, tenemos que aprender a desarrollar el pensamiento crítico, lo que implica verificar la fuente, tratar de localizar referencias adicionales, contrastar con otras fuentes, etc. El problema es que desde nuestra educación más básica, partimos de contarle a los niños que “la verdad” está en las páginas de un libro, en una única fuente, y eso lleva a que no dominen herramientas como la búsqueda, y tiendan a quedarse, por ejemplo, sistemáticamente con el primer resultado de Google, sin más reflexión. Tendríamos que prohibir los libros de texto, introducir el smartphone en el aula, y pedir a los niños que buscasen los contenidos en la red, para así educarles en estrategias de búsqueda, cualificación de fuentes y desarrollo de pensamiento crítico. Esa modificación de la enseñanza resulta cada vez más importante, y un auténtico reto que tenemos como sociedad.

 

P. Existen varios servicios o sitios web que identifican las noticias e informaciones que son falsas. ¿Cómo funcionan y son la solución?

R. Los fact-checkers o verificadores son una buena solución, pero lamentablemente, dado que trabajan con personas, tienden a ser lentos, válidos para una verificación con perspectiva o para parar la difusión de un rumor, pero no para evitar que se inicie o que se difunda durante un tiempo. Su importancia es creciente, pero no sustituyen al desarrollo de un juicio o pensamiento crítico.

 

P. Dado que las redes sociales y otras plataformas cuentan con un número de usuarios superior al de cualquier medio de comunicación tradicional o digital, ¿deberían estas empresas monitorear, eliminar o sancionar de forma más exhaustiva a los usuarios que propagan la desinformación o que generan cuentan falsas?

R. Las redes sociales pueden llevar a cabo muchas acciones correctoras, como controlar, por ejemplo, la difusión de rumores, falsedades, o mensajes relacionados con el discurso del odio. Sin embargo, es peligroso confiar en las acciones de estas compañías, dado que hacerlo equivale a ponerlas en una posición de árbitros que no les debería corresponder, y menos cuando hablamos de cuestiones que tienen que ver con el pensamiento o la opinión. Obviamente, las compañías que gestionan las redes sociales deberían evitar acciones coordinadas o comportamientos marcadamente antisociales, como deberían evitar la difamación, la calumnia o el libelo, pero eso no es tan sencillo como parece en un entorno social. Del mismo modo que no podemos controlar lo que una persona le dice a otra en la barra de un bar, resulta difícil pensar que podamos hacerlo con todas las comunicaciones en redes sociales: habrá que diferenciar el ámbito y el tipo de comunicación, la intencionalidad, la escala a la que se produce y, sobre todo, educar a la sociedad en el uso de su herramienta, con todo lo que ello conlleva.

 

P. ¿Cuándo empezaron a emplearse la Inteligencia Artificial y los algoritmos para crear bots? ¿Por qué son estos tan dañinos y no se contrarrestan con las mismas armas?

R. Los bots no son necesariamente dañinos. Hay bots muy útiles, muy interesantes, y estarán en nuestra vida en el futuro con total seguridad: muchas de nuestras interacciones a lo largo del día tendrán un chatbot o bot conversacional al otro lado. Lo que puede ser dañino es el uso de la tecnología para crear bots que simulen usuarios reales: es un fraude, supone un problema de gestión para las compañías que gestionan las redes o para las que se anuncian en ellas, y nos pone en una situación similar a la de la película Blade Runner, con compañías desarrollando bots fraudulentos y otras compañías tratando de detectarlos mediante todo tipo de tecnologías basadas en machine learning e inteligencia artificial. Al principio, los bots eran simples cuentas que seguían a un usuario,. Cuando se las empezó a descartar por inactivas, empezaron a desarrollar pautas de actividad más o menos aleatorias, como seguir a otros usuarios, retuitear o dar Like a algunas publicaciones, etc. Ahora, su actividad es cada vez más difícil de prever, y por tanto, son más difíciles de identificar. Eso supone una “escalada armamentística” en el desarrollo de machine learning cuyo resultado no es fácil de prever.

 

P. Algunos de estos mensajes se propagan desde los propios gobiernos con el fin de desestabilizar procesos electorales en otros países. Aunque las injerencias políticas no son nada nuevo, dado que el sector digital se mueve más rápido que el sistema legal, ¿nos encontramos ante una nueva tipología de crisis diplomática?

R. Sin duda, es un arma que muchos estados están utilizando, unos con más escrúpulos que otros, y que habría que tratar como un problema serio. Que un presidente de los Estados Unidos se comporte como un troll impresentable y carente de todo sentido común en las redes sociales es mucho más que una anécdota, supone un problema serio, y debería llevarnos a revisar las reglas de la diplomacia. Que algunos países consideren razonable atacar las infraestructuras de otros o lanzar campañas de manipulación a través de la red supone algo muy serio, que es preciso elevar al estatus de conflicto internacional, y apelar a los foros más importantes en este ámbito.

 

P. Pensando en clave futuro, ¿la propaganda digital va a seguir creciendo y evolucionando o entrarán en escena mecanismos de censura o filtros que diluyan su presencia?

R. La propaganda digital y las fake news persistirán hasta que, como sociedad, seamos capaces de desarrollar mecanismos de pensamiento y razonamiento crítico, de introducirlos en el curriculum educativo y de convertirlos en un cimiento de la interacción social.

 

Comments are closed.