@edans followers plotted over time on Twitter (IMAGE: Jose María Mateos)Interesante trabajo de Jose María Mateos a partir del fenomenal artículo del New York Times que comentábamos hace unos días, titulado “The follower factory, en el que se detallaban las prácticas de compañías como Devumi y muchas otras dedicadas a simular la popularidad de usuarios creando followers falsos, campañas de retweets, etc.: en su artículo, Jose María investiga este tipo de fenómenos y recrea, utilizando Python y R, la metodología utilizada por The New York Times para crear sus gráficas.

Con esa herramienta, analiza algunas cuentas españolas – entre otras la mía – en busca de patrones interesantes. Sus conclusiones son completamente pragmáticas y prudentes: la herramienta sirve para lo que sirve (es decir, aunque pueda revelar patrones sospechosos de compra de seguidores, no permite detectar, por ejemplo, que un número de usuarios artificialmente haga retweet de algo para incrementar su visibilidad o viralizarlo, por ejemplo), la presencia de esos patrones no implica que alguien haya recurrido a servicios de compra de seguidores (alguien podría haberlos comprado para él, por ejemplo) y, por tanto, los cambios y alteraciones en la gráfica únicamente indican que “alguien, en alguna parte, hizo algo”. 

Visto así, los resultados no parecen tan “morbosos” como alguno podría esperar: una herramienta que permite crear un gráfico sencillo con el tiempo en ordenadas y el número de seguidores en abscisas, y en la que si aparecen líneas horizontales, indica que una cuenta experimentó una subida muy rápida de seguidores, tanto más inmediata cuanto más horizontal sea la línea. ¿Qué me resulta interesante? El poder ver el análisis de mi cuenta, no tanto por mirarme el ombligo, sino por poder contrastarla con lo que yo sí sé que hice a lo largo del tiempo, porque además, siendo como soy, me parecía más que probable que lo hubiese documentado. Mi cuenta, desde hace bastante tiempo, es “muy normal“: publico relativamente poco además de referenciar la entrada que escribo cada día en español y en inglés, y ocasionalmente, comparto alguna noticia o respondo a alguna cuestión. No es en absoluto una actividad que intente “optimizar” desde un punto de vista social, ni maximizar en términos de popularidad, ni nada por el estilo. Agradezco la relevancia que parece que tengo considerando que soy un simple profesor y no “un famoso”, y punto.

Una cosa sí sé seguro: jamás he recurrido a ninguna herramienta de compra de seguidores, ni siquiera para explorar el fenómeno. ¿Puedo garantizar que nadie haya pagado por hacer subir artificialmente mi cuenta de seguidores? Obviamente no, pero me parecería harto improbable en mi caso, dado que tampoco he participado nunca en ningún esquema de pago por tweet ni en patrocinios de ningún tipo. Este tipo de esquemas sí podrían ser relativamente habituales en perfiles de otro tipo: influencers, por ejemplo, que quieran construirse un perfil que simule relevancia y paguen por esos seguidores ellos mismos, o que decidan participar en una campaña de tweets patrocinados para una marca y esa marca o su agencia decidan pagar para incrementar sus seguidores y así intentar obtener un mejor retorno de su inversión.

Viendo mi gráfica, que como el propio Jose María Mateos comenta, “parece bastante normal“, la ausencia de “maniobras” de este tipo parece clara: no hay líneas horizontales bruscas, y sí hay algunos períodos, dos concretamente, en los que la incorporación de seguidores es más rápida de lo habitual, concretamente entre 2009 y 2010 y, en mucha menor medida, entre mediados de 2014 y de 2015. En el primer caso, en efecto, es algo que en su momento documenté: coincidiendo con el lanzamiento de Twitter en español, mi cuenta fue incluida como uno de los usuarios recomendados, lo que llevó a que muchas cuentas de reciente creación – hablamos de un momento en el que Twitter tenía un crecimiento fuerte – aceptasen esa sugerencia y me siguiesen. Las entradas en las que lo comento son esta, cuando detecto el patrón y lo relaciono con ese efecto, y esta otra, en la que hablo de la decisión de Twitter de eliminar las listas de usuarios recomendados. El otro cambio de inclinación, más reciente, no tengo ni idea de a qué puede deberse, aunque tampoco le he dedicado mucho tiempo de análisis.

¿A dónde voy con esto? A partir de mi entrada del pasado día 1 de febrero, recibí un correo de la directora de comunicación de Twitter en España, Elena Bule, en el que, con respecto a mis reproches hacia la compañía de no hacer lo suficiente para evitar esas prácticas, me detallaba extensamente el trabajo que desde Twitter estaban llevando a cabo sobre esos temas. La verdad es que el correo de Elena me llegó en uno de esos días en los que no tiene tiempo de nada, y probablemente debido a lo rápido que iba y a la confianza que tengo con ella, le respondí de manera bastante abrupta diciéndole que, en realidad, todas esas medidas no significaban prácticamente nada, porque comprar followers era enormemente sencillo a día de hoy, y la compañía, aunque afirmase que era una práctica estrictamente prohibida, no hacía en realidad nada para evitarlo. Amabilísima (mucho más de lo que mi respuesta habría merecido), Elena me respondió invitándome a una próxima cita con el equipo de seguridad de la compañía y con su country manager para hablar del tema, que aún no hemos mantenido, pero en la que intentaré clarificar este tipo de cuestiones. 

¿Mi punto? Que si incluso en mi caso, que sé perfectamente lo que he hecho o dejado de hacer, me puede resultar complicado adscribir algunos cambios en la inclinación de mi gráfica – otros no tanto, como hemos visto, – a la propia Twitter no. Es decir: que si Twitter quisiese de verdad aislar esos patrones de compra de seguidores, podría hacerlo con la ayuda de los algoritmos adecuados. ¿Puede separarse, por ejemplo, un patrón de compra de seguidores de un momento de popularidad súbita, como el que puede seguir a una noticia impactante? Si una persona, por ejemplo, recibe de repente una popularidad elevada por el motivo que sea y aparece en numerosos medios de comunicación, podría, en efecto, ser seguida por muchas cuentas en pocos días, lo que podría parecer una operación de compra de seguidores. Sin embargo, tiendo a pensar que no es así, que un análisis más fino podría detectar esos patrones, e incluso que podría emplearse análisis de eventos y correlaciones con menciones en Google News, por ejemplo, para analizar ese fenómeno, y que podrían utilizarse otros métodos para discernir cuando una evolución responde a parámetros de crecimiento natural y cuando no. Desde fuera, posiblemente no sea tan sencillo, pero desde dentro de la compañía y con todos los datos en la mano, creo firmemente que sí. Mi trabajo con análisis de series temporales me lleva a ser optimista en ese aspecto, y mi conversación con Twitter espero que vaya por ese tipo de derroteros: creo que Twitter tendría, si quiere recuperar su relevancia, que actuar de una manera decidida eliminando todo aquello que sea un fraude: tanto esquemas de compra de seguidores, como aquellas cuentas que recurrieron a ella, aunque ello pudiese significar un fuerte impacto en su número de usuarios. ¿Puede plantearse algo así? ¿Qué efectos podría llegar a tener?

Más, próximamente.

 

IMAGE: Higyou - 123RFEl fiscal general de Nueva York abre investigación sobre las compañías dedicadas a la venta de followers falsos y otras métricas de popularidad en redes sociales siguiendo el caso de Devumi, a partir de un fantástico artículo de investigación publicado el pasado día 27 por The New York Times titulado The follower factory en el que se detallaban las prácticas de esta compañía.

Devumi y otras compañías de actividades similares son un caso clarísimo de actividad parasitaria: para los entornos sociales, son como una enfermedad. A partir de la popularización de cualquier red social, este tipo de compañías acuden buscando generar un beneficio a costa de ellas, y su efecto puede llegar a resultar profundamente dañino. El caso de Twitter es completamente paradigmático: su inacción y falta de actividad a la hora de tratar con este fenómeno ha generado no solo muchos problemas a los usuarios – la demanda que origina la acción judicial se debe a los daños generados a personas cuyos nombres o fotografías eran utilizados para simular cuentas falsas – sino también un profundo descrédito de la red social en su conjunto. Que la ley actúe resulta completamente razonable: como afirma el fiscal general Eric Schneiderman, “la suplantación y el engaño son ilegales según la ley de Nueva York”, pero tristemente ineficiente, porque nada evita que estas compañías puedan perfectamente actuar, y de hecho actúen, radicándose en países en los que este tipo de delitos o su actividad no son perseguidas, y en los que además pueden encontrar acceso a costes laborales más reducidos y poner a decenas de personas, mediante procesos puramente manuales e intensivos, a crear o alimentar esas cuentas falsas. Lo que tiene que ocurrir es que sean las propias redes sociales las que actúen con decisión e inmediatez ante ellas.

¿Por qué Twitter no actúa, o no de una manera pública y notoria, contra las compañías que venden followers a diestro y siniestro? Simplemente, porque erróneamente cree que eso puede funcionar como atracción para determinados perfiles, que pueden así aparentar una popularidad de la que carecen o que precisaba de ese tipo de ayudas artificiales para ponerse al nivel que estimaban adecuado. Al no poner en práctica medidas que disuadan contra este tipo de usos, las redes sociales alimentan patrones de insostenibilidad, un auténtico laberinto en el que nada es verdad ni es mentira, en el que procesos tan alucinantes como el de pagar por robots que sigan a una persona resultan tristemente normalizados, y en el que todas las métricas que permitirían evaluar la relevancia de las acciones se distorsionan de manera grotesca. No sé si, como insinúa Fast Company, ese clima puede acabar llevándonos a una guerra nuclear, pero sí sé que es profundamente negativo y preocupante, y que ya ha contribuido de manera relevante a algo tan importante como permitir que un idiota entrase en la Casa Blanca. Para las compañías de redes sociales, perseguir este tipo de actividades debería constituir una auténtica obsesión, una necesidad imperiosa, algo determinante de cara a su futuro. Y en su lugar, solemos encontrar tibieza, ambivalencia o incluso, en ocasiones, una laxa colaboración. Si para cualquiera es posible encontrar, mediante una simple búsqueda en la web, una compañía que venda followers falsos, ¿qué hace que las redes sociales en las que se desarrolla esa actividad no actúen de manera inmediata?

¿Puede una compañía poner en práctica medidas que resulten de verdad disuasorias en este sentido? Por supuesto. No resulta sencillo si cualquiera puede crear una cuenta y, si resulta eliminada, crear automáticamente otra, pero pueden hacerse muchas cosas, y la tecnología funciona a ambos lados de la conexión. Determinar que es una misma persona, o un mismo equipo el que crea una cuenta no es sencillo y no completamente fiable, pero puede llevarse a cabo de manera mucho más fehaciente a como actualmente se hace. Los indicadores de ese tipo de actividades pueden ser procesados mediante machine learning, y determinados de una manera mucho más precisa que como se hace actualmente. Por otro lado, es preciso poner en práctica medidas que avergüencen públicamente a quienes recurran a ese tipo de prácticas, sean quienes sean, de manera que se eleven las barreras de entrada por miedo a ser descubiertos. En eso consiste la disuasión, en un incremento de las barreras de entrada sea por complicación técnica o por miedo a los posibles efectos posteriores. Y en un ámbito como el social, resulta absolutamente fundamental si no se quiere desvirtuar completamente su valor como ecosistema.

Que el buen periodismo y la ley actúen contra personajes asquerosos e impresentables como German Calas es bueno para todos. Pero sobre todo, que actúe Twitter, que es la principal perjudicada por su parasitaria actividad, y que ha mostrado una preocupante inacción en este sentido.

 

La ultima frontera de las redes sociales - Cambio16Gonzalo Toca, de Cambio16, me llamó para hablar sobre el fenómeno de las fake news y la necesidad de las redes sociales de controlar la información que difunden, incluso derivada de requerimientos legales para ello, y hoy publica “La última frontera de las redes sociales“, en donde cita algunos de mis comentarios al respecto.

Mi posición en este tema intenta dejar claro que hablamos de un problema enormemente complejo: no se trata simplemente de pasar de manera ingenua una ley con importantes sanciones económicas que conmina a las redes sociales a eliminar actualizaciones utilizadas para diseminar el discurso del odio en cuanto lo vean, porque en modo alguno resulta así de sencillo. Los gobiernos que aspiran a solucionar el problema con semejantes medidas pecan ya no de ingenuidad, sino de auténtica estupidez.

Estamos ante situaciones completamente nuevas, sin precedentes, ante las que las propias redes sociales no saben qué hacer: por un lado, no pueden – ni mucho menos deberían – arrogarse un supuesto “monopolio de la verdad” y dedicarse a censurar información en función de sus propios criterios, porque eso, sin duda, terminaría por generar problemas mayores aún. Tampoco pueden plegarse a los deseos de un gobierno en concreto o de una legislación que prohiba determinadas cosas, porque hablamos de herramientas de difusión universal sujetas no solo a fueros jurídicos muy variados, sino incluso a problemáticas muy locales: lo que es delito flagrante y muy castigado en Alemania, no lo es en otros países, del mismo modo que informaciones consideradas perfectamente dentro de la libertad de expresión en ese país son causa inmediata de cárcel en Thailandia o en Turquía. El entorno es complejo, porque superponemos a la clásica división de fronteras una serie de herramientas que, de manera natural, no las tienen.

Pero además, luchamos contra otro problema de índole superior: la naturaleza humana. El sensacionalismo y el amarillismo siempre han tenido numerosos adeptos, hasta el punto que en países como el Reino Unido o la propia Alemania, algunas de las publicaciones más vendidas, como The Sun o Bild son probablemente los más claros exponentes de ese tipo de “periodismo” (y sí, las comillas están ahí para remarcar que respeto el periodismo y desprecio ese tipo de publicaciones). La naturaleza humana es la que lleva a una persona a difundir noticias que favorecen su punto de vista, aunque este sea sectario, histriónico o exagerado hasta lo grotesco. O que, ante la llamada de atención de una red social que advierte que esa noticia podría ser falsa en función de su contraste con otras o con la opinión de fact-checkers considerados fiables, reacciona con redoblados esfuerzos para difundirla y lo hace, además, con un texto en mayúsculas y con signos de admiración que dice “comparte esta noticia que la red social quiere censurar”.

El problema no solo no es sencillo, sino que requiere de soluciones my complejas. Algunos creen de manera ingenua que “los algoritmos” pueden diferenciar una noticia verdadera de una falsa, como si las inteligencias artificiales fuesen capaces, de la noche a la mañana, de superar a las naturales empleadas en tal propósito. No es así. Los algoritmos pueden llegar a reconocer determinados patrones de difusión, probablemente a crear señales y etiquetas de alarma si detectan una difusión exageradamente rápida o entre personas con perfiles muy afines. Pueden posiblemente pero no de manera sencilla, reconocer cuentas falsas o con una actividad sospechosa, o comparar versiones de una misma noticia y relacionarlas, como hace Google en Google News constantemente. Pero de ahí a etiquetar con decisión lo que es verdad y lo que no lo es, va un tramo, y dado que no todas las verdades son hechos comprobables y en estos temas hablamos muy a menudo de opinión, la frontera se muestra enormemente escurridiza. ¿De verdad querríamos redes sociales que de manera algorítmica censurasen determinadas opiniones? ¿Qué diría la Primera Enmienda de la Constitución de los Estados Unidos, por poner solo un fuero en el que este tipo de actitudes tendrían problemas?

Las redes sociales deberán, por tanto, comenzar a estudiar un problema de naturaleza compleja, en el que tendrán que emplear no simplemente algoritmos que cuesta mucho desarrollar y entrenar (y un campo en el que veremos infinitos errores y falsos positivos), sino también con editores humanos, con sistemas de alerta y etiquetado por pares, con fact-checkers, con recurso al periodismo considerado fiable o de fuentes comprobables, y con mucha, mucha paciencia. No es tan sencillo como decir “múltese a quien contribuya a difundir noticias falsas”, porque lo mismo estaremos hablando de usuarios desinformados o muy polarizados, que de enormes estrategias puestas en marcha con recursos cuasi-ilimitados de agencias gubernamentales dispuestas a desestabilizar o a sesgar situaciones en función de sus intereses. No, la injerencia rusa sobre las elecciones norteamericanas que está investigando el fiscal especial Mueller no es cosa de fantasía, como no lo son situaciones similares en muchos otros entornos que Rusia también ha llevado a cabo. Vivimos épocas en las que este tipo de actitudes han pasado a considerarse nuevas y muy potentes fuerzas en el contexto geopolítico internacional, con todo lo que ello conlleva.

Antes de compartir sin leer, de hacer algo tan humano como intentar reforzar tus puntos de vista con otros presuntamente afines, o de perder la razón exagerando o polarizando sin límites, deberíamos pensar eso, que estamos ante situaciones sin precedentes, que las redes sociales han rebajado muchísimo las barreras de entrada a la manipulación, y que se trata de un problema complejo que requiere soluciones que, sencillamente, no tenemos, que hay que trabajar con colaboración de todas las partes implicadas. No se trata de amenazar con multas, ni de sancionar sin más, sino de ser creativos y tratar de investigar con todos los medios disponibles. No es un problema irresoluble. Pero sin duda, no va a ser nada fácil dar con él.

 

Las Vegas strip shooting (IMAGE: Alex Canton)Los terribles sucesos de ayer en Las Vegas, con sesenta personas muertas y más de quinientos heridos, volvieron a poner de manifiesto la dificultad de obtener información fiable en la era del llamado information overload.

En las primeras horas tras la tragedia, tanto Google como Facebook se convirtieron en auténticos altavoces para todo tipo de noticias falsas, hipótesis y suposiciones dadas como ciertas sobre la identidad del asesino, rumores sin fundamento, cazas de brujas y foros de más que dudosa credibilidad. Google se encontró con que un error algorítmico había clasificado como fuente fiable nada menos que a 4chan, y se dedicó a distribuir sus noticias a través de Google News y Google Now. Facebook destacó durante bastante tiempo un foro creado nada más ocurrir la noticia por una persona de nula credibilidad, que fue considerado como interesante por su elevado crecimiento y participación. Las disculpas de ambas compañías, muy parecidas, igualmente insatisfactorias y poco menos que “echando la culpa a la máquina”, resultan un escaso consuelo. En plena era de la hiperconexión y la velocidad, informarse adecuadamente empieza a resultar una tarea cada vez más compleja.

Las prisas, en efecto, no son buenas consejeras. Pero cuando una noticia toma un elevado protagonismo y lo que está en juego, además del deber de informar, es la posibilidad de derivar interesantes flujos de ingresos por publicidad, las estrategias pueden convertirse en muy peligrosas. Como en el caso de las inserciones publicitarias en Facebook durante la campaña electoral, la respuesta podría estar en un mayor nivel de supervisión humana al menos mientras los algoritmos son entrenados adecuadamente, pero no está claro que los patrones de difusión de las noticias de última hora respondan a patrones repetitivos que permitan que esos algoritmos lleguen, en realidad, a proporcionar una respuesta. En cada noticia, los posibles actores y el cúmulo de intereses en torno a la difusión de un hecho falso pueden ser ampliamente diferentes, las fuentes pueden ser de todo tipo y sin que necesariamente tengan credenciales anteriores que chequear (podría ser simplemente un testigo de los hechos con un smartphone) y parece complicado que un algoritmo llegue a tener la capacidad de discernir adecuadamente.

Cada pocos minutos, echamos mano de nuestro smartphone para ver Facebook o nos encontramos con noticias en Google Now. Sin embargo, ninguno de esos servicios posee periodistas preparados para escribir, editar o evaluar las noticias que difunden, y se basan fundamentalmente en algoritmos que inspeccionan y clasifican las generadas por terceros. Eso podría generar una forma de informarse más plural y poliédrica, pero en la práctica, se convierte en un infierno de noticias falsas y sensacionalistas cuya visibilidad crece en una especie de bucle sin fin, sin que nadie se responsabilice por ello, hasta que un humano con dos dedos de frente interviene. No hablamos de un hecho aislado: en cada noticia reciente considerada suficientemente importante para ello, el fenómeno vuelve a tener lugar, y nos enfrenta de nuevo con el problema. Crear una noticia falsa, sea un tiburón photoshoppeado nadando en una autopista o una persona ensangrentada que en realidad hace varios años que fue golpeada, es algo que hoy está al alcance de cualquiera, como lo está el publicarlo mediante redes sociales o el contribuir a difundirlo con un retweet o un share tras poner cara de sorpresa. En la era de la velocidad, el juicio crítico parece estar en desuso.

¿Puede un algoritmo desarrollar juicio crítico, al menos para eliminar aquellas noticias que nunca habrían pasado la supervisión de un periodista con algo de oficio? ¿O la solución está necesariamente en fichar hordas de verificadores para todo?

 

IMAGE: Johan2011 - 123RF

Facebook, en su cruzada contra las noticias falsas, anuncia un sistema del que ya habíamos hablado en entradas anteriores, pero que aún no se había concretado y que a mí me parece claramente el más prometedor: tratar de identificar mediante machine learning los patrones de difusión de noticias que resultan sospechosos, bien debido al uso de cuentas específicas identificadas como sospechosas de participar en esos esquemas, o por la forma en que se produce esa difusión.

¿Es la identificación de rumores y noticias falsas una tarea adecuada para el machine learning? Todo parece indicar que su uso resulta sumamente prometedor: por un lado, la red social cuenta con un repositorio de datos históricos importantes que han podido ser sujetos a comprobación, repositorio que además crece de manera cada vez más rápida debido a la cada vez mayor actividad de las páginas dedicadas al fact-checking. Por otro, se trata de un fenómeno con patrones identificables, en el que los actores implicados – que pueden ser partidos políticos, gobiernos u otras entidades con un interés en el tema – utilizan habitualmente sistemas conocidos, como cuentas falsas a las que recurren de manera repetitiva, o bots que generan una actividad elevada.

Un sistema similar es el utilizado por Twitter para la eliminación de cuentas creadas de manera automática, actividad en la que ya posee una amplia experiencia, pero que se ha convertido en un verdadero problema a la hora de evaluar la actividad en su red. Al principio, las cuentas falsas eran completamente obvias: cuentas que se creaban para venderlas como followers falsos que inflaban las estadísticas de quien pagaba por ello, pero que permanecían inactivas, y que a partir de un cierto tiempo como tales, eran identificadas como falsas. De ahí, se pasó a cuentas que llevaban a cabo una actividad determinada, tal como seguir algunas cuentas o hacer algunos retweets o likes que también podían ser susceptibles de comercialización, pero respondiendo a patrones generalmente identificables. La carrera continúa cuando esos patrones se someten a sistemas aleatorios para evitar su detección, en lo que empieza a parecerse al argumento de una novela de Philip K. Dick: robots diseñados para no ser identificados como tales, que luchan contra otros robots pensados para hacerlo, y pruebas diagnósticas que evalúan si lo son o no.

En el caso de Facebook y las noticias falsas, estamos aún al principio de esta carrera, pero la carrera armamentística comienza indudablemente más fuerte: los algoritmos de machine learning empleados tratarán de ir empleando metodologías cada vez más sofisticadas, en un intento de identificar los progresos de quienes tratan de esconder esos patrones, y también, por supuesto, de reducir el número de falsos positivos, de noticias reales que se vean sometidas a algún tipo de “cuarentena” por recibir una atención muy elevada de manera muy rápida pero genuina. Identificar los patrones de difusión viral real y separarlos de los artificiales creados en función de unos intereses determinados parece, en efecto, una tarea adecuada para un algoritmo de machine learning, pero también nos lleva a un cierto conflicto de intereses si Facebook pretende comercializar ese tipo de patrones de difusión viral a sus anunciantes, una tentación que ya ha esbozado anteriormente. Pronto empezaremos a ver los resultados.