IMAGE: Stuart Hampton - Pixabay (CC0)Según una reciente encuesta de Gallup y la Knight Foundation, el 85% de los norteamericanos piensan que las plataformas sociales no hacen suficiente para combatir la difusión de las noticias falsas, y la mayoría adscriben a estas plataformas la responsabilidad sobre la veracidad del contenido.

Como ya he comentado en numerosas ocasiones, el problema de las noticias falsas no está en las plataformas sociales, sino en los usuarios, y concretamente, en su ausencia de pensamiento crítico. La falta de pensamiento crítico es lo que lleva a una persona a creerse una noticia simplemente “porque la ha visto en Facebook”, porque “le ha llegado por WhatsApp” o porque “es el primer resultado en Google”, del mismo modo que el deseo de obtener notoriedad o apreciación social es lo que le lleva no solo a creérsela, sino además, a compartirla con sus amigos. En la práctica, lo que un porcentaje elevadísimo de norteamericanos están diciendo con esta encuesta no es ni más ni menos que “somos demasiado estúpidos para usar internet, y demandamos a las plataformas sociales que nos protejan”.

No, el problema no son las noticias falsas, y las plataformas sociales no pueden proteger a los usuarios de sí mismos. Proteger a alguien que es demasiado estúpido para protegerse a sí mismo es un problema, porque impide que Darwin actúe como debería. Durante toda la historia de la humanidad, hemos tenido herramientas que permitían que una persona accediese a información: hace años que disponemos de bibliotecas, pero como requerían de un cierto esfuerzo para informarse en ellas, mantenían suficientemente alejados de manera natural a los que eran demasiado estúpidos como para utilizarlas. Internet, sin embargo, pone toda la información a un clic de distancia de cualquier persona, y con ello, permite que cualquiera, incluso aquel que es demasiado estúpido como para racionalizar mínimamente lo que está leyendo, acceda a ella. En ese sentido, las redes sociales deberían evitar ser utilizadas como herramientas de manipulación masiva, deberían intentar identificar estrategias destinadas a promover la viralización de determinados mensajes y deberían, como ya están intentando hacer, tratar de eliminar mensajes que inciten a la violencia o al odio, pero no pueden – ni deben – convertirse en jueces de lo que circula por ellas. Son, simplemente, un canal, con algunas reglas que deberían ser lo más transparentes que sea posible. En gran medida, el papel de protegerse contra la desinformación, las noticias falsas o las estafas tiene que recaer, nos pongamos como nos pongamos, en los usuarios.

Una estafa es una estafa, y quien la lleva a cabo es un estafador. Y la ley cuenta con mecanismos para proteger a las personas de los estafadores, aunque pueda ser que la universalidad de internet convierta esa posible persecución en ocasiones en un verdadero reto. Pero ¿qué debemos hacer con el enésimo estúpido que responde a un correo electrónico de un supuesto dictador nigeriano que le pide sus datos bancarios porque le asegura que le va a transferir muchos miles de millones de dólares? ¿De verdad puede alguien pensar que la responsabilidad sobre eso corresponde a una herramienta de correo electrónico, a la compañía que la gestiona, o a la red social a través de la cual le llega ese mensaje? ¿No sería más correcto y factual asumir que esa persona era, sencillamente, demasiado estúpida como para utilizar internet? Lo que deberíamos hacer no es bramar contra internet y sus actores, sino, sin renunciar a perseguir, lógicamente, a quien lo haya estafado, intentar que ese usuario adquiera educación para que no vuelva a cometer errores de ese tipo, y entienda de una vez por todas que las cosas que son demasiado bonitas para ser verdad es, sencillamente… porque no son verdad.

La solución, lógicamente, no es intentar construir “una internet a prueba de estúpidos”, sino educar a los usuarios para que aprendan que no todo lo que leen en Facebook, lo que aparece como resultado en una búsqueda de Google o lo que les llega por WhatsApp es necesariamente cierto. El problema, por supuesto, es que para muchos, las mentiras más falaces y evidentes son ni más ni menos que lo que quieren creer, aquello de lo que han decidido convencerse a sí mismos o incluso, en muchos casos, de lo que aspiran a convencer a los demás: lo hemos visto en numerosas ocasiones, cuando una red social etiqueta una noticia como falsa, y miles de estúpidos corren a difundirla más aún, retroalimentada con eso de “lo que Facebook no quiere que leas”. Y las noticias falsas ni siquiera son patrimonio de internet o de las redes sociales: muchos medios tradicionales, como periódicos o televisiones, participan también en su difusión, en busca de la noticia fácil, de la generación de atención a toda costa, o, por qué no, intentando crear estados de opinión en el público que consideren coherentes con su línea editorial. Lo único que internet y las redes sociales han hecho es disminuir las barreras de entrada a la publicación: ahora, cualquiera puede convertirse en un medio de comunicación, del mismo modo que cualquiera con suficientes medios puede simular una audiencia de cierto tamaño que se escandaliza con un tema determinado o que aparenta un fuerte apoyo a unas ciertas tesis.

Pedir a las redes sociales que sean transparentes con respecto a sus procedimientos, que intenten impedir procesos de manipulación o que intenten limitar la difusión de mensajes que inciten al odio puede ser adecuado. Pero centrar el problema de las noticias falsas en el canal es un grave error, porque la gran verdad es que la verdadera responsabilidad está en los usuarios. Podremos, a lo largo de una generación y si nos ponemos seriamente a ello, construir sistemas educativos que se centren en reforzar el pensamiento crítico, que no tomen como verdad nada por el simple hecho de que esté escrito en un libro, en una pantalla o que lo hayamos visto en un vídeo. Pero negar la responsabilidad del usuario es como obligarnos a etiquetar un microondas con una pegatina de “no lo utilice para secar a su mascota” por si a algún imbécil se le ocurre meter a su gato dentro y después, además, va y nos denuncia: un recordatorio permanente de que algunas personas son demasiado estúpidas ya no para usar un microondas, sino para vivir en sociedad. Y por supuesto, para usar internet.

 

Guerra digital - Cambio

Lucía Burbano, de la revista mexicana Cambio, me envió algunas preguntas por correo electrónico acerca del fenómeno de las fake news y sus cada vez más habituales usos organizados, y ha incluido una parte de ellas en su artículo titulado “Guerra digital” (ver en pdf), publicado hace una semana.

Hablamos sobre el uso de este tipo de herramientas de desinformación en esferas militares o en la política, de las posibilidades que tenemos para diferencias noticias verdaderas de noticias falsas en un entorno en el que las barreras a la publicación descienden para todos, del papel de los llamados verificadores o fact-checkers y de la responsabilidad de las propias redes sociales, del uso creciente de bots y herramientas basadas en inteligencia artificial, y de la necesidad de desarrollar el pensamiento crítico a través de la enseñanza para intentar enfrentarnos a esta problemática en el futuro.

Precisamente hoy aparecen noticias sobre el gobierno indio que, ante la escalada de linchamientos y palizas a ciudadanos inocentes derivados de rumores maliciosos difundidos a través de WhatsApp en determinadas zonas rurales (que incluso llegaron a provocar, en algunos casos, la suspensión temporal del acceso a internet en regiones completas), reclama a la compañía que detenga estos rumores, como si realmente fuese el papel de un canal de comunicación decidir sobre la veracidad o falsedad de las conversaciones que se desarrollan a su través. ¿Pediría seriamente ese ministro a una compañía telefónica que detuviese las conversaciones entre sus abonados “si dicen mentiras”? Basta con esa comparación para entender la barbaridad de la que estamos hablando: WhatsApp no solo es un canal de comunicación equivalente a una compañía telefónica, sino que, además, gestiona la información que se intercambia a su través con protocolos robustos de cifrado, con claves de un solo uso que ni siquiera la propia compañía conoce, lo que convierte en prácticamente imposible cualquier tipo de monitorización preventiva. La compañía podrá intentar colaborar, pero realmente, el problema únicamente se puede solucionar, y no de manera completa, cuando se incida en el desarrollo del pensamiento crítico desde las primeras etapas de la educación, con campañas de información o con mensajes que inviten a la población a comprobar la veracidad de sus fuentes.

A continuación, siguiendo mi práctica habitual, el texto completo del cuestionario que intercambié con Lucía:

P. ¿Es la propaganda digital una continuación de los métodos empleados tradicionalmente en el ejército y la política? O las características de la red (velocidad y facilidad para compartir un mensaje, omisión de fuentes o falta de verificación de las mismas) hace que cuando hablamos de la manipulación intencionada del mensaje, este sea más peligroso?

R. En realidad, hablamos del aprovechamiento de una vulnerabilidad de nuestra sociedad: hemos desarrollado una serie de herramientas, las redes sociales, que cuentan con sus propios códigos y mecanismos para remunerar la participación, tales como Likes, comentarios y número de seguidores, pero hemos renunciado a educar a la sociedad en su uso. Durante generaciones, hemos acostumbrado a la sociedad a que si algo estaba en letra impresa o salía en televisión, era confiable, y ahora nos encontramos con un descenso brutal en las barreras de entrada a la publicación, con un porcentaje cada vez más elevado de personas que acceden a las noticias a través de herramientas como Facebook o Twitter, y con una indefensión de una sociedad que nunca ha desarrollado el pensamiento crítico. Las redes sociales pueden desarrollar mecanismos para intentar mejorar la situación, pero la gran realidad es que el problema solo se solucionará generacionalmente, y únicamente si incorporamos en la educación mecanismos para desarrollar el pensamiento crítico, la comprobación de fuentes, la verificación de información, etc. que a día de hoy, únicamente se enseñan en las facultades de periodismo.

 

P. Las líneas entre una noticia verdadera y una falsa están cada vez más difuminadas. ¿Cómo podemos distinguirlas para evitar que la manipulación o desinformación gobiernen las decisiones del ciudadano/votante? ¿Somos inmunes a la manipulación? ¿O el componente subjetivo y emocional de muchos de los debates e informaciones falsas que se comparten en la red es tan elevado que estamos perdiendo la capacidad de ser más críticos?

R. Cuando las barreras de entrada a la publicación descienden drásticamente, el papel de la credibilidad y la reputación de las fuentes crece. En general, tenemos que aprender a desarrollar el pensamiento crítico, lo que implica verificar la fuente, tratar de localizar referencias adicionales, contrastar con otras fuentes, etc. El problema es que desde nuestra educación más básica, partimos de contarle a los niños que “la verdad” está en las páginas de un libro, en una única fuente, y eso lleva a que no dominen herramientas como la búsqueda, y tiendan a quedarse, por ejemplo, sistemáticamente con el primer resultado de Google, sin más reflexión. Tendríamos que prohibir los libros de texto, introducir el smartphone en el aula, y pedir a los niños que buscasen los contenidos en la red, para así educarles en estrategias de búsqueda, cualificación de fuentes y desarrollo de pensamiento crítico. Esa modificación de la enseñanza resulta cada vez más importante, y un auténtico reto que tenemos como sociedad.

 

P. Existen varios servicios o sitios web que identifican las noticias e informaciones que son falsas. ¿Cómo funcionan y son la solución?

R. Los fact-checkers o verificadores son una buena solución, pero lamentablemente, dado que trabajan con personas, tienden a ser lentos, válidos para una verificación con perspectiva o para parar la difusión de un rumor, pero no para evitar que se inicie o que se difunda durante un tiempo. Su importancia es creciente, pero no sustituyen al desarrollo de un juicio o pensamiento crítico.

 

P. Dado que las redes sociales y otras plataformas cuentan con un número de usuarios superior al de cualquier medio de comunicación tradicional o digital, ¿deberían estas empresas monitorear, eliminar o sancionar de forma más exhaustiva a los usuarios que propagan la desinformación o que generan cuentan falsas?

R. Las redes sociales pueden llevar a cabo muchas acciones correctoras, como controlar, por ejemplo, la difusión de rumores, falsedades, o mensajes relacionados con el discurso del odio. Sin embargo, es peligroso confiar en las acciones de estas compañías, dado que hacerlo equivale a ponerlas en una posición de árbitros que no les debería corresponder, y menos cuando hablamos de cuestiones que tienen que ver con el pensamiento o la opinión. Obviamente, las compañías que gestionan las redes sociales deberían evitar acciones coordinadas o comportamientos marcadamente antisociales, como deberían evitar la difamación, la calumnia o el libelo, pero eso no es tan sencillo como parece en un entorno social. Del mismo modo que no podemos controlar lo que una persona le dice a otra en la barra de un bar, resulta difícil pensar que podamos hacerlo con todas las comunicaciones en redes sociales: habrá que diferenciar el ámbito y el tipo de comunicación, la intencionalidad, la escala a la que se produce y, sobre todo, educar a la sociedad en el uso de su herramienta, con todo lo que ello conlleva.

 

P. ¿Cuándo empezaron a emplearse la Inteligencia Artificial y los algoritmos para crear bots? ¿Por qué son estos tan dañinos y no se contrarrestan con las mismas armas?

R. Los bots no son necesariamente dañinos. Hay bots muy útiles, muy interesantes, y estarán en nuestra vida en el futuro con total seguridad: muchas de nuestras interacciones a lo largo del día tendrán un chatbot o bot conversacional al otro lado. Lo que puede ser dañino es el uso de la tecnología para crear bots que simulen usuarios reales: es un fraude, supone un problema de gestión para las compañías que gestionan las redes o para las que se anuncian en ellas, y nos pone en una situación similar a la de la película Blade Runner, con compañías desarrollando bots fraudulentos y otras compañías tratando de detectarlos mediante todo tipo de tecnologías basadas en machine learning e inteligencia artificial. Al principio, los bots eran simples cuentas que seguían a un usuario,. Cuando se las empezó a descartar por inactivas, empezaron a desarrollar pautas de actividad más o menos aleatorias, como seguir a otros usuarios, retuitear o dar Like a algunas publicaciones, etc. Ahora, su actividad es cada vez más difícil de prever, y por tanto, son más difíciles de identificar. Eso supone una “escalada armamentística” en el desarrollo de machine learning cuyo resultado no es fácil de prever.

 

P. Algunos de estos mensajes se propagan desde los propios gobiernos con el fin de desestabilizar procesos electorales en otros países. Aunque las injerencias políticas no son nada nuevo, dado que el sector digital se mueve más rápido que el sistema legal, ¿nos encontramos ante una nueva tipología de crisis diplomática?

R. Sin duda, es un arma que muchos estados están utilizando, unos con más escrúpulos que otros, y que habría que tratar como un problema serio. Que un presidente de los Estados Unidos se comporte como un troll impresentable y carente de todo sentido común en las redes sociales es mucho más que una anécdota, supone un problema serio, y debería llevarnos a revisar las reglas de la diplomacia. Que algunos países consideren razonable atacar las infraestructuras de otros o lanzar campañas de manipulación a través de la red supone algo muy serio, que es preciso elevar al estatus de conflicto internacional, y apelar a los foros más importantes en este ámbito.

 

P. Pensando en clave futuro, ¿la propaganda digital va a seguir creciendo y evolucionando o entrarán en escena mecanismos de censura o filtros que diluyan su presencia?

R. La propaganda digital y las fake news persistirán hasta que, como sociedad, seamos capaces de desarrollar mecanismos de pensamiento y razonamiento crítico, de introducirlos en el curriculum educativo y de convertirlos en un cimiento de la interacción social.

 

WhatsApp fake newsA medida que la tecnología, el periodismo, los gobiernos y una gama cada vez más amplia de actores intentan buscar soluciones contra la difusión de noticias falsas en redes sociales, más nos vamos dando cuenta de que, en realidad, el problema se debe a una ausencia de educación en el uso de una herramienta que cuenta con potentes sistemas que incentivan la compartición, unido a una cultura en la que mecanismos como la verificación, el contraste de fuentes o el desarrollo del pensamiento crítico no forman parte aún del proceso educativo.

Podemos desarrollar infinidad de herramientas; sistemas de verificación, fact-checkers o algoritmos para intentar combatir la difusión de las llamadas fake news, pero en último término, cuando las barreras de entrada a la publicación y difusión bajan dramáticamente, resulta imposible evitar que una persona que está deseando creer algo participe en su difusión a muchas otras personas que, probablemente, piensan igual que ella. Las únicas soluciones verdaderamente sostenibles, seguramente, están relacionadas con el cambio del proceso educativo y el desarrollo de habilidades  en el conjunto de la sociedad.

En el medio de toda la polémica sobre la circulación de noticias falsas, surge un canal que no es estrictamente y como tal una red social, pero sí juega a menudo un papel similar: estrictamente, WhatsApp y los sistemas de mensajería instantánea son canales interpersonales de comunicación, pero cuando la comunicación se estructura en grupos y las personas se convierten en vectores que reenvían y circulan información entre esos grupos, lo que tenemos es, en realidad, un mecanismo perfecto para la difusión, que puede ser apalancado por cualquier interesado en la creación de estados de opinión.

Recientemente, en una de las regiones centrales de India, dos jóvenes que detuvieron su automóvil para pedir indicaciones fueron linchados por una multitud que creyó que eran, tal y como habían leído en un mensaje ampliamente difundido por WhatsApp, criminales que buscaban matar a personas para comerciar con sus órganos. El meteórico crecimiento de WhatsApp ha convertido la plataforma de mensajería en un canal perfecto por el que circulan bulos de todo tipo y que, al no ser un canal público, se convierte en una caja negra que dificulta sensiblemente las labores de seguimiento y verificación. Personas de toda condición que creen hacer un favor a sus compañeros de grupo alertándolos sobre supuestas “noticias” que informan sobre la elevación de la alerta terrorista, sobre un nuevo tipo de robo o estafa, sobre el tremendo peligro de unos supuestos smartphones explosivos abandonados en la calle o sobre teorías conspiranoicas de todo tipo, pero que también pueden ser adecuadamente instrumentalizados para difundir noticias con propósito de manipulación social o política.

La evolución de las tecnologías implicadas en la lucha contra las fake news puede verse de día en día. Desde servicios de verificación como Verificado (México), Maldito Bulo (España) o las ya veteranas Snopes o PolitiFact (Estados Unidos), hasta herramientas basadas en blockchain que etiquetan las noticias en el navegador. Para cada avance en el desarrollo de, por ejemplo, deep fakes en vídeo que permiten alterar secuencias o voces para hacerlas parecer genuinas (¿cómo no lo voy a creer y a circular, si lo he visto con mis propios ojos?), surgen startups con rondas de capital interesantes centradas en su análisis y detección. Una cuestión central, en cualquier caso, sigue persistiendo: cómo conseguir que una persona no consuma o circule una información que está personalmente interesado en creer, por encima de cualquier sistema de verificación, porque coincide con su visión del mundo.

Hablar del tema, en cualquier caso, ayuda a generar una cierta conciencia: no, quien te envía esos mensajes a través de un grupo de WhatsApp no es necesariamente alguien interesado en tu bienestar, sino muy posiblemente, el fruto de un esquema de manipulación diseñado para esparcir un bulo determinado de manera interesada. La manipulación masiva recurriendo a herramientas como WhatsApp se ha convertido en algo tangible y demostrable, lo que nos obliga a tomarnos cada cosa que recibamos a través de ese canal y que tenga capacidad para trascender a cambios en nuestra forma de ver la sociedad con el más que nunca necesario grano de sal. Cuando leas o cuentes algo, piensa que si la única referencia que tienes es “me lo pasaron por WhatsApp” o “lo leí en WhatsApp”, es muy posible que sea un bulo.

 

IMAGE: Typography images - CC0 Creative Commons Con las redes sociales habituales y la publicidad bajo intenso control y escrutinio en los procesos electorales de cada vez más países del mundo, se multiplican las evidencias que apuntan a que los interesados en la manipulación de los ciudadanos están orientando cada vez más sus esfuerzos hacia una nueva herramienta, teóricamente más personal y sobre la que resulta mucho más difícil ejercer un control efectivo: la mensajería instantánea.

Diseñada inicialmente como medio de interacción personal, para conversaciones entre conocidos, la mensajería instantánea ha evolucionado para convertirse, en muchos casos, en una herramienta grupal a través de la que circulan y se difunden todo tipo de mensajes. Tras el papel aparentemente destacado de Facebook Messenger en la difusión de rumores y mensajes de odio racial en la crisis humanitaria de los Rohingya en Myanmar en 2017, Facebook ha decidido introducir opciones que permiten a los usuarios reportar conversaciones a través de la herramienta, con categorías como acoso, discurso de odio o suicidio, en un intento por ejercer un mayor nivel de control sobre una herramienta que, como tal, no es propiamente una red social, sino un canal de comunicación que ha excedido los límites de lo que originalmente era la comunicación interpersonal.

En el mismo sentido, algunos artículos apuntan al papel central que WhatsApp parece estar jugando en la campaña electoral de las próximas elecciones indias: una gran cantidad de grupos con elevados niveles de popularidad, partidos creando infraestructuras en las que sus miembros se responsabilizan de influenciar el voto de determinados grupos de personas, y difusión de mensajes que, por hallarse en principio dentro de un canal restringido a la comunicación privada, pueden exceder el tono o evitar el control que en principio se ejerce sobre la propaganda electoral o los mensajes de campaña tradicionales. En la práctica, una forma de tratar de influenciar el voto indeciso mediante una herramienta cuyas conversaciones discurren en un entorno cifrado al que ni siquiera la propia compañía tiene acceso, y que por tanto tendría necesariamente que partir de la propia denuncia del receptor del mensaje de cara a posibles acciones de control.

Cada vez son más las personas que consideran los grupos de mensajería instantánea como foros en los que reciben y comentan noticias de todo tipo. En realidad, como todo contexto social, hablamos de un canal a través del que pueden plantearse y escalarse acciones de ingeniería social, con el problema de que, en este caso, el control es todavía más difícil que en el caso de las redes sociales tradicionales. Grupos en los que habitualmente existe un contacto personal con algunos de los miembros, que típicamente reflejan y amplifican las creencias de sus participantes, y en los que los interesados en llevar a cabo procesos de manipulación pueden introducirse de manera relativamente sencilla, circular noticias falsas o mensajes inflamatorios, y poner en práctica todo tipo de técnicas de ingeniería social. Mientras en una red social resulta relativamente sencillo, para el gestor de la red, evaluar la difusión o el alcance de una campaña o acción publicitaria, en una red de mensajería instantánea este tipo de acciones de evaluación podrían resultar prácticamente imposibles.

La solución a este tipo de procesos no está, me temo, en un control de los canales que, en casos como el de la mensajería instantánea, se antoja prácticamente imposible. La solución hay que buscarla a más largo plazo, casi generacional, mediante procesos que, introducidos en la educación, ayuden a la creación de criterio, a la generación de prácticas como la verificación de fuentes, la depuración de mensajes, el contraste o el reconocimiento de procesos de manipulación: solo una sociedad que se prepare adecuadamente contra este tipo de procesos de intoxicación colectiva puede considerarse madura a la hora de desenvolverse en la era de unos medios sociales que han sido vistos por muchos como una auténtica oportunidad. Tras la experiencia de unas elecciones norteamericanas convertidas en prueba máxima, y previamente ensayadas en múltiples procesos electorales en otros países, ahora llega la enésima edición: la introducción en la ecuación de las herramientas de mensajería instantánea: algunos usuarios en India afirman estar expuestos a mensajes de contenido político prácticamente cada minuto, con contenidos que van desde las puras soflamas hasta las encuestas falsas con intención de dinamizar el voto, en un contexto en el que, además, el refuerzo social se construye en base a personas conocidas, a familiares o a amigos, lo que dificulta un eventual abandono del grupo. Un proceso que, mucho me temo, solo puede ir a más, y en el que las acciones de control se antojan sumamente complejas. La única solución es llevar a cabo más trabajo de información, más advertencias, más esfuerzos por evitar que los ciudadanos consideren un único canal como fuente infalible de conocimiento, en un proceso en el que muchos no creen aquello que tiene más sentido o más posibilidades de ser verdad, sino simplemente aquello que refuerza sus tesis o sus creencias. Y en este sentido, las herramientas de mensajería instantánea podrían estar convirtiéndose en toda un arma de manipulación masiva con importantes posibilidades de cara a próximos procesos electorales.

Nada es más fácil que manipular a aquel que prácticamente busca ser manipulado.

 

IMAGE: Tech.eu (CC BY)El cofundador de WhatsApp, Jan Koum, anuncia su salida de Facebook, la compañía que le convirtió en multimillonario y en cuyo consejo de administración ocupaba un puesto desde febrero de 2014, por desavenencias con la gestión de los datos personales y la privacidad que lleva a cabo la compañía. Según algunos analistas, esto podría suponer la llegada de la publicidad a la app de mensajería instantánea, una decisión a la que el ucraniano se oponía de manera radical desde aquel mítico memorándum recibido de su cofundador, Brian Acton.

La salida de Koum sigue precisamente a la del otro cofundador de la aplicación, que tuvo lugar en septiembre del pasado 2017. Tras su despedida, Acton aportó fondos para la constitución de la Signal Foundation, a la que se incorporó. Además, se convirtió en un acérrimo crítico de la compañía que le había dado de comer los tres años anteriores y que le había convertido en multimillonario, y ha contribuido a difundir y promover el hashtag #deletefacebook como resultado del escándalo de Cambridge Analytica.

Aunque la razón oficial de la salida de Jan Koum, según su nota en Facebook, es la de “tomarse algún tiempo libre para hacer cosas que disfruta más allá de la tecnología“, fuentes de la compañía afirman que la razón real son las crecientes disputas con respecto a la gestión de la privacidad y la información de los usuarios. La dialéctica personal de Koum siempre ha sido afirmar que el hecho de crecer en la Unión Soviética en la década de los ’80, donde la vigilancia era un hecho normal de la vida cotidiana, le había hecho darse cuenta de la importancia de la privacidad: una “historia bonita”, pero que no coincide en absoluto con el hecho de que algo así le llevase a montar una aplicación de mensajería instantánea que era, antes de la adquisición por parte de Facebook, un auténtico desastre en términos de privacidad, una aplicación que obtuvo su popularidad y crecimiento precisamente del hecho de ignorar todas las prácticas habituales de seguridad en su industria.

Antes de la adquisición, los ingenieros de WhatsApp, que presumiblemente eran buenos gestionando su backend para mantener la aplicación funcionando, habían probado ser completamente incapaces de poner en marcha un sistema de cifrado con mínimas garantías y tenían un desastroso historial de prácticas de seguridad y privacidad: ese desastre era lo que ese Koum tan supuestamente concienciado sobre su importancia había construido. La llegada de una seguridad decente a WhatsApp no se produjo hasta bastante tiempo después, ya como parte del imperio Facebook y disfrutando de todas las comodidades y dispendios que ello posibilitaba, cuando la compañía, en noviembre de 2014, recibió la ayuda del mítico Moxie Marlinspike para incorporar a la aplicación el protocolo de Signal. Antes de eso, toda la supuesta seguridad de WhatsApp era, sencillamente, una basura, un desastre, por mucho que dijese Jan Koum y sus supuestos principios al respecto. 

Que alguien con un pasado tan poco edificante como Jan Koum, que durante años ofreció una aplicación desastrosa y completamente irresponsable en términos de seguridad, abandone Facebook en un supuesto ataque de dignidad por su preocupación sobre la gestión de la privacidad y los datos personales de sus usuarios tiene, en realidad, tanto valor como que el Capitán Renault se sorprenda de que haya juego en el café de Rick en Casablanca. Lo único que podemos decir de la historia personal de Koum es que fundó una compañía basada en la ausencia total de seguridad y privacidad, que jamás podría haber llegado a ningún sitio si no hubiese sido adquirida por un tercero porque carecía de perspectiva alguna de rentabilidad, y que ahora, convertido en multimillonario, se dedica a ir de digno afirmando que no le gustan las prácticas de la compañía que le permitió convertirse en lo que es y apareciendo como el gran adalid que, con su presencia, impedía la llegada de la publicidad a WhatsApp. No, no es una cuestión de principios: es un simple “toma el dinero y corre”.

Si alguien busca héroes o militantes para la causa de la seguridad y de la privacidad en la salida de Jan Koum de Facebook, mejor que los vaya buscando en otros sitios.