IMAGE: Stuart Hampton - Pixabay (CC0)Según una reciente encuesta de Gallup y la Knight Foundation, el 85% de los norteamericanos piensan que las plataformas sociales no hacen suficiente para combatir la difusión de las noticias falsas, y la mayoría adscriben a estas plataformas la responsabilidad sobre la veracidad del contenido.

Como ya he comentado en numerosas ocasiones, el problema de las noticias falsas no está en las plataformas sociales, sino en los usuarios, y concretamente, en su ausencia de pensamiento crítico. La falta de pensamiento crítico es lo que lleva a una persona a creerse una noticia simplemente “porque la ha visto en Facebook”, porque “le ha llegado por WhatsApp” o porque “es el primer resultado en Google”, del mismo modo que el deseo de obtener notoriedad o apreciación social es lo que le lleva no solo a creérsela, sino además, a compartirla con sus amigos. En la práctica, lo que un porcentaje elevadísimo de norteamericanos están diciendo con esta encuesta no es ni más ni menos que “somos demasiado estúpidos para usar internet, y demandamos a las plataformas sociales que nos protejan”.

No, el problema no son las noticias falsas, y las plataformas sociales no pueden proteger a los usuarios de sí mismos. Proteger a alguien que es demasiado estúpido para protegerse a sí mismo es un problema, porque impide que Darwin actúe como debería. Durante toda la historia de la humanidad, hemos tenido herramientas que permitían que una persona accediese a información: hace años que disponemos de bibliotecas, pero como requerían de un cierto esfuerzo para informarse en ellas, mantenían suficientemente alejados de manera natural a los que eran demasiado estúpidos como para utilizarlas. Internet, sin embargo, pone toda la información a un clic de distancia de cualquier persona, y con ello, permite que cualquiera, incluso aquel que es demasiado estúpido como para racionalizar mínimamente lo que está leyendo, acceda a ella. En ese sentido, las redes sociales deberían evitar ser utilizadas como herramientas de manipulación masiva, deberían intentar identificar estrategias destinadas a promover la viralización de determinados mensajes y deberían, como ya están intentando hacer, tratar de eliminar mensajes que inciten a la violencia o al odio, pero no pueden – ni deben – convertirse en jueces de lo que circula por ellas. Son, simplemente, un canal, con algunas reglas que deberían ser lo más transparentes que sea posible. En gran medida, el papel de protegerse contra la desinformación, las noticias falsas o las estafas tiene que recaer, nos pongamos como nos pongamos, en los usuarios.

Una estafa es una estafa, y quien la lleva a cabo es un estafador. Y la ley cuenta con mecanismos para proteger a las personas de los estafadores, aunque pueda ser que la universalidad de internet convierta esa posible persecución en ocasiones en un verdadero reto. Pero ¿qué debemos hacer con el enésimo estúpido que responde a un correo electrónico de un supuesto dictador nigeriano que le pide sus datos bancarios porque le asegura que le va a transferir muchos miles de millones de dólares? ¿De verdad puede alguien pensar que la responsabilidad sobre eso corresponde a una herramienta de correo electrónico, a la compañía que la gestiona, o a la red social a través de la cual le llega ese mensaje? ¿No sería más correcto y factual asumir que esa persona era, sencillamente, demasiado estúpida como para utilizar internet? Lo que deberíamos hacer no es bramar contra internet y sus actores, sino, sin renunciar a perseguir, lógicamente, a quien lo haya estafado, intentar que ese usuario adquiera educación para que no vuelva a cometer errores de ese tipo, y entienda de una vez por todas que las cosas que son demasiado bonitas para ser verdad es, sencillamente… porque no son verdad.

La solución, lógicamente, no es intentar construir “una internet a prueba de estúpidos”, sino educar a los usuarios para que aprendan que no todo lo que leen en Facebook, lo que aparece como resultado en una búsqueda de Google o lo que les llega por WhatsApp es necesariamente cierto. El problema, por supuesto, es que para muchos, las mentiras más falaces y evidentes son ni más ni menos que lo que quieren creer, aquello de lo que han decidido convencerse a sí mismos o incluso, en muchos casos, de lo que aspiran a convencer a los demás: lo hemos visto en numerosas ocasiones, cuando una red social etiqueta una noticia como falsa, y miles de estúpidos corren a difundirla más aún, retroalimentada con eso de “lo que Facebook no quiere que leas”. Y las noticias falsas ni siquiera son patrimonio de internet o de las redes sociales: muchos medios tradicionales, como periódicos o televisiones, participan también en su difusión, en busca de la noticia fácil, de la generación de atención a toda costa, o, por qué no, intentando crear estados de opinión en el público que consideren coherentes con su línea editorial. Lo único que internet y las redes sociales han hecho es disminuir las barreras de entrada a la publicación: ahora, cualquiera puede convertirse en un medio de comunicación, del mismo modo que cualquiera con suficientes medios puede simular una audiencia de cierto tamaño que se escandaliza con un tema determinado o que aparenta un fuerte apoyo a unas ciertas tesis.

Pedir a las redes sociales que sean transparentes con respecto a sus procedimientos, que intenten impedir procesos de manipulación o que intenten limitar la difusión de mensajes que inciten al odio puede ser adecuado. Pero centrar el problema de las noticias falsas en el canal es un grave error, porque la gran verdad es que la verdadera responsabilidad está en los usuarios. Podremos, a lo largo de una generación y si nos ponemos seriamente a ello, construir sistemas educativos que se centren en reforzar el pensamiento crítico, que no tomen como verdad nada por el simple hecho de que esté escrito en un libro, en una pantalla o que lo hayamos visto en un vídeo. Pero negar la responsabilidad del usuario es como obligarnos a etiquetar un microondas con una pegatina de “no lo utilice para secar a su mascota” por si a algún imbécil se le ocurre meter a su gato dentro y después, además, va y nos denuncia: un recordatorio permanente de que algunas personas son demasiado estúpidas ya no para usar un microondas, sino para vivir en sociedad. Y por supuesto, para usar internet.

 

WhatsApp fake newsA medida que la tecnología, el periodismo, los gobiernos y una gama cada vez más amplia de actores intentan buscar soluciones contra la difusión de noticias falsas en redes sociales, más nos vamos dando cuenta de que, en realidad, el problema se debe a una ausencia de educación en el uso de una herramienta que cuenta con potentes sistemas que incentivan la compartición, unido a una cultura en la que mecanismos como la verificación, el contraste de fuentes o el desarrollo del pensamiento crítico no forman parte aún del proceso educativo.

Podemos desarrollar infinidad de herramientas; sistemas de verificación, fact-checkers o algoritmos para intentar combatir la difusión de las llamadas fake news, pero en último término, cuando las barreras de entrada a la publicación y difusión bajan dramáticamente, resulta imposible evitar que una persona que está deseando creer algo participe en su difusión a muchas otras personas que, probablemente, piensan igual que ella. Las únicas soluciones verdaderamente sostenibles, seguramente, están relacionadas con el cambio del proceso educativo y el desarrollo de habilidades  en el conjunto de la sociedad.

En el medio de toda la polémica sobre la circulación de noticias falsas, surge un canal que no es estrictamente y como tal una red social, pero sí juega a menudo un papel similar: estrictamente, WhatsApp y los sistemas de mensajería instantánea son canales interpersonales de comunicación, pero cuando la comunicación se estructura en grupos y las personas se convierten en vectores que reenvían y circulan información entre esos grupos, lo que tenemos es, en realidad, un mecanismo perfecto para la difusión, que puede ser apalancado por cualquier interesado en la creación de estados de opinión.

Recientemente, en una de las regiones centrales de India, dos jóvenes que detuvieron su automóvil para pedir indicaciones fueron linchados por una multitud que creyó que eran, tal y como habían leído en un mensaje ampliamente difundido por WhatsApp, criminales que buscaban matar a personas para comerciar con sus órganos. El meteórico crecimiento de WhatsApp ha convertido la plataforma de mensajería en un canal perfecto por el que circulan bulos de todo tipo y que, al no ser un canal público, se convierte en una caja negra que dificulta sensiblemente las labores de seguimiento y verificación. Personas de toda condición que creen hacer un favor a sus compañeros de grupo alertándolos sobre supuestas “noticias” que informan sobre la elevación de la alerta terrorista, sobre un nuevo tipo de robo o estafa, sobre el tremendo peligro de unos supuestos smartphones explosivos abandonados en la calle o sobre teorías conspiranoicas de todo tipo, pero que también pueden ser adecuadamente instrumentalizados para difundir noticias con propósito de manipulación social o política.

La evolución de las tecnologías implicadas en la lucha contra las fake news puede verse de día en día. Desde servicios de verificación como Verificado (México), Maldito Bulo (España) o las ya veteranas Snopes o PolitiFact (Estados Unidos), hasta herramientas basadas en blockchain que etiquetan las noticias en el navegador. Para cada avance en el desarrollo de, por ejemplo, deep fakes en vídeo que permiten alterar secuencias o voces para hacerlas parecer genuinas (¿cómo no lo voy a creer y a circular, si lo he visto con mis propios ojos?), surgen startups con rondas de capital interesantes centradas en su análisis y detección. Una cuestión central, en cualquier caso, sigue persistiendo: cómo conseguir que una persona no consuma o circule una información que está personalmente interesado en creer, por encima de cualquier sistema de verificación, porque coincide con su visión del mundo.

Hablar del tema, en cualquier caso, ayuda a generar una cierta conciencia: no, quien te envía esos mensajes a través de un grupo de WhatsApp no es necesariamente alguien interesado en tu bienestar, sino muy posiblemente, el fruto de un esquema de manipulación diseñado para esparcir un bulo determinado de manera interesada. La manipulación masiva recurriendo a herramientas como WhatsApp se ha convertido en algo tangible y demostrable, lo que nos obliga a tomarnos cada cosa que recibamos a través de ese canal y que tenga capacidad para trascender a cambios en nuestra forma de ver la sociedad con el más que nunca necesario grano de sal. Cuando leas o cuentes algo, piensa que si la única referencia que tienes es “me lo pasaron por WhatsApp” o “lo leí en WhatsApp”, es muy posible que sea un bulo.

 

IMAGE: Rawpixel - 123RFUn estudio llevado a cabo en el MIT y publicado ayer en Science viene a demostrar de manera fehaciente una gran verdad que resultaba más que evidente y cuyas consecuencias llevamos mucho tiempo sufriendo: las noticias falsas se difunden hasta unas veinte veces más rápido en Twitter que las verdaderas, y los culpables de ello no son los bots, sino las personas.

El estudio analiza noticias compartidas a lo largo prácticamente toda la vida de Twitter desde sus inicios gracias a datos facilitados por la propia compañía, unas 126,000 piezas de información compartidas por unos tres millones de usuarios a lo largo de más de diez años, y concluye que de manera consistente, lo falso domina sobre lo verdadero en la red social: las noticias falsas y los rumores alcanzan a más personas, penetran de manera más profunda y se difunden mucho más rápido que las reales. 

El estudio se centra en Twitter, pero no resulta demasiado aventurado suponer que el resultado pueda extenderse a la mayoría de las redes sociales que utilizamos de manera habitual: la conclusión, de hecho, no señala un problema derivado de las redes sociales, sino un problema propio de las personas. A lo largo de un tiempo no excesivamente largo en términos de desarrollo de mecanismos y protocolos sociales, hemos creado un sistema que disminuye hasta el límite las barreras de entrada a la difusión de información, lo hemos dotado de mecanismos que incentivan la compartición y la popularidad por encima de todo, y hemos renunciado a educar a las personas en su uso. ¿Qué podría salir mal?

La educación es, en efecto, el elemento fundamental en esta cuestión: algunos posiblemente podrían pensar que es normal que un profesor apunte a su actividad como solución a todos los problemas, siguiendo el clásico de “como tengo un martillo, para mí todos los problemas son un clavo”, pero realmente creo que este problema lleva apuntándose desde hace mucho tiempo. La educación, en general, ha evolucionado poquísimo desde hace décadas. Básicamente, seguimos educándonos, a casi todos los niveles, con los mismos mecanismos que se educaron nuestros padres y nuestros abuelos: libros de texto que tenemos que estudiar, memorizar y posteriormente, repetir en un examen, en diversos formatos.

Seguimos partiendo de la base de que la información está en un repositorio de algún tipo, generalmente un libro o unos apuntes de un profesor, y asumiendo que esa es la información correcta, la que tenemos que aprendernos, la que vale. Esa dependencia del libro de texto y de la información que va “desde la página tal a la página cual”, esos mecanismos de “esto es lo que entra en el examen” nos ha llevado a perversiones importantes, como la utilización de esos libros de texto como herramientas de adoctrinamiento puestas al servicio de los más variados fines. Pero, sobre todo, nos convierten en dependientes de una fuente de información determinada, y evitan que desarrollemos mecanismos adecuados de búsqueda y cualificación de información. Esos mecanismos de verificación de fuentes, tradicionalmente, solo se enseñan – y no necesariamente de la mejor manera – en las facultades de Ciencias de la Información y Periodismo, no en el ámbito de otros tipos de enseñanza ni de manera general. Sin embargo, cada día más, resultan una habilidad fundamental en una sociedad caracterizada por la hiperabundancia y la saturación de información.

Así, vivimos ahora en una sociedad en la que muchísimas personas aceptan como verdad absoluta cualquier cosa que vean escrita en una pantalla, que toman como norma de fe el primer resultado de un buscador, o que creen a pies juntillas lo que ven compartido en una red social o en un trending topic. Y no solo que lo creen, sino que, además, lo difunden, intentando obtener así más Likes, más popularidad, ocupar un nivel de centralidad mayor o una mejor consideración en su círculo. Si vemos algo en una red que nos llama la atención o que coincide con nuestra visión del mundo, lo compartimos sin ningún tipo de mecanismo de verificación previo. Si lo vemos compartido por muchas personas, pasa a tener la característica de verdad absoluta. Esa vulnerabilidad, ese fallo del sistema, ha sido explotado de manera evidente y exitosa por quienes han aprendido a simular un amplio seguimiento, a generar una gran polarización, pero en realidad, los verdaderos culpables no son esos bots y esas cuentas falsas destinadas gestionadas desde otro sitio, sino nuestra propia ingenuidad y estupidez como sociedad, la ausencia de comportamientos que, reforzados mediante la educación, nos lleven a desarrollar mecanismos de verificación.

El recurso a las páginas de un libro de texto como vehículo transmisor de la verdad es un error terrible que tenemos que subsanar lo antes posible. La educación, desde los niveles más elementales, debería apoyarse no en libros de texto, sino en el desarrollo de la capacidad de búsqueda y cualificación de información en la red. Los alumnos tendrían que entender que la verdad no está entre las páginas de un libro ni de ninguna otra fuente designada: en realidad, la verdad está ahí fuera, y solo mediante los adecuados mecanismos activos y conscientes de contraste y verificación aprendemos a capturarla. Esto lo he escrito en numerosas ocasiones, he llamado a matar al libro de texto o a no proceder a su simple digitalización para ponerlo en un soporte más atractivo.

Aprender hoy consiste en entender que el conocimiento no está encerrado en ningún libro. Aprender es aprender a buscar. Supone manejarse entre cantidades ilimitadas y crecientes de información, y ser capaz de identificarla, cualificarla, verificarla, descartarla cuando es mala, compartirla cuando es buena… supone aprender a consultar múltiples fuentes, y guiarse por sistemas en los que el profesor se convierte en un criterio más, en un nodo más de conocimiento, en alguien que, aunque quisiese transmitir algo erróneo, no podría hacerlo sin quedar cuestionado. El conocimiento no debe provenir de un libro que todos, desde instituciones de todo tipo hasta un gobierno, tienen interés por manipular o por convertir en negocio. Pero tampoco puede ser dejado al solo criterio de un profesor que puede tener sus propios sesgos, su propia agenda o incluso sus propios monstruos. Ni al de los padres. La enseñanza debe asegurar que los niños entienden que un libro, un profesor, un periódico, un gobierno o unos padres no pueden nunca constituirse en fuente única del conocimiento, porque el conocimiento está ahí fuera, evoluciona, y hay que ir a buscarlo en cada momento. La enseñanza, cada día más, tiene que dejar de consistir en dar peces, y convertirse en enseñar a pescar. 

El actual problema que indudablemente tenemos de sociedad ingenua, estúpida, fácilmente manipulable, que comparten cualquier basura que leen en la red sin pararse a verificarla, no se soluciona con tecnología. Se soluciona cambiando, y de manera urgente, la educación. La tecnología podrá ayudar y contribuir a algunas cosas, podrá enfocarse en la detección de determinados patrones de difusión que permitan una supervisión humana, en la verificación de fuentes, o podrá servir para ayudar en esa tarea importante denominada fact-checking, pero no debería ser utilizada para tratar de crear “algoritmos de la verdad”, so pena de volver a incidir en los mismos errores. La verdadera solución, insisto, está en la educación. En cambiar la educación para adaptarla al tiempo y al entorno tecnológico que nos ha tocado vivir. Y en hacerlo, además, lo antes posible.

 

IMAGE: Roman Fedin - 123RFComo parte de su resolución para arreglar los problemas de Facebook, Mark Zuckerberg ha publicado una nueva entrada en su página en la que apunta algunas ideas sobre cómo pretende llevar a cabo la selección de noticias que los usuarios podrán ver en sus News Feeds.

Y si lprimera medida, modificar el News Feed para reducir el alcance de las noticias y los vídeos, y reforzar la presencia de los contenidos creados por tus amigos, abrió la polémica sobre la interacción entre la red social y los medios de comunicación, la segunda promete hacerlo mucho más aún: según Mark, la compañía debe crear un ranking con la fiabilidad de las fuentes de información, pero dado que no se sentía cómoda tomando la decisión sobre qué medios deben ser considerados fuentes confiables, y que tampoco veía con buenos ojos la posibilidad de crear un comité externo para ello, se ha decidido por la tercera posibilidad: la de preguntar a sus usuarios

Las preguntas son inmediatas: ¿podemos fiarnos de la opinión de los usuarios de una red a la hora de decidir qué fuentes son fiables y cuáles no? La pregunta es la misma que suele utilizarse a la hora de criticar la democracia como sistema: ¿por qué los votos de determinadas personas valen tanto como los de otras? ¿Qué ocurre en una red de más dos mil millones de usuarios cuando, por ejemplo, todos los lectores de una fuente abiertamente sensacionalista, ferozmente sesgada o fuertemente polémica es artificialmente considerada por todos sus lectores habituales como la más fiable? Después de todo, los diarios sensacionalistas están entre los más populares en muchos países, lo que indica que, obviamente, tienen un público, algo que seguramente forma parte de la condición humana.

Según la escasamente detallada entrada de Mark, la idea es preguntar a los usuarios su nivel de familiaridad con una fuente determinada, para posteriormente pedirles que se pronuncien sobre su fiabilidad. Lo que aparentemente se pretende es separar aquellas publicaciones que únicamente son consideradas fiables para sus lectores o observadores, frente a aquellas que aparecen como ampliamente fiables para toda la sociedad, incluso para aquellos que no las siguen directamente. Al eliminar de la muestra a aquellos que no están familiarizados con una fuente, el resultado pasa a ser una proporción entre aquellos que confían en una fuente y aquellos que están familiarizados con ella, lo que, de nuevo, vuelve a plantear todo tipo de preguntas: ¿qué ocurre a la hora de intentar preservar un equilibrio entre las fuentes grandes, evidentes y fuertemente consolidadas o establecidas, frente a publicaciones más pequeñas, especializadas, o de nueva creación? ¿Se convertirá Facebook en un “club de viejas glorias” en el que únicamente se acepta a “las fuentes de toda la vida”? ¿Cómo evitar que los usuarios mientan, y distorsionen esa  proporción afirmando tener familiaridad con una fuente aunque no la tengan, calificándola como no fiable aunque sepan que realmente lo es, o viceversa? ¿O incluso que las propias publicaciones llamen a sus lectores a tomar partido, editorialicen sobre las intenciones de Facebook, y pretendan crear estrategias para manipularlas? Después de todo, es más que posible que una gran proporción de los que comparten noticias falsas lo hagan sabiendo perfectamente que son falsas, pero pretendiendo extender su alcance porque, sencillamente, esas falsedades son mentiras que quieren creerse, que desearían que fueran ciertas, o que coinciden bien con su visión del mundo.

Las noticias falsas no responden a una dinámica única, no son sencillamente usuarios engañados por un titular o por un contenido. En realidad, el problema es mucho más complejo, y esconde desde intereses definidos, hasta, en ocasiones, simple curiosidad, morbo o interés por ver argumentos contrarios. Después de todo, el comodín del público, el simplemente lanzar una pregunta a la audiencia considerándola a toda ella apta para contestarla, genera en muchas ocasiones respuestas ampliamente desinformadas, en función de la creencia más popular, de las mentiras mejor vendidas o más atractivas, o simplemente de lo que cree alguien que no tiene preparación para dar una respuesta. La pregunta directa de cómo de fiable es una fuente es más que probable que no responda a las características de la fuente, sino a la distancia ideológica entre su línea editorial y las opiniones de la persona que opina sobre ella. ¿Es posible evitar, detectar o tener en consideración estos factores a la hora de tomar decisiones sobre qué fuentes de información son consideradas fiables y cuáles no? ¿Que puede hacerse algorítmicamente a la hora de detectar esos patrones de posible fraude, sea intencionado o construido artificialmente como parte del funcionamiento del sistema? ¿Puede llegarse a una única clasificación universal sobre fiabilidad? ¿Cuál puede ser el resultado de tal intento?