IMAGE: Clker - CC0 Creative CommonsFinalmente, todo indica que Twitter se ha decidido a actuar con decisión con respecto al que era su gran problema, del que habíamos hablado en numerosas ocasiones: la escasa calidad de una red infestada de cuentas falsas, bots, trolls y otras especies desagradables: durante los meses de mayo y junio, la compañía ha suspendido unos setenta millones de cuentas, más de un millón al día, en un intento por reducir los usos perniciosos de su red, y todo indica que la tendencia continúa en lo que llevamos del mes de julio.

La compañía está llevando a cabo esta limpieza en un momento en el que podía presumir de tener las mejores cifras de crecimiento de los últimos tiempos, pero lógicamente, una operación de limpieza semejante va a afectar esa evolución, y posiblemente conlleve que la compañía muestre crecimiento negativo en su número de usuarios durante algún tiempo. Tras la adquisición de Smyte, todo indica que, finalmente, la compañía ha terminado de clarificar su posición sobre la toxicidad y la supuesta protección de la libertad de expresión a toda costa: los que se definían a sí mismos como “the free speech wing of the free speech party”, se han dado cuenta de que, en la dura realidad, las posiciones idealistas tienen un límite, y que es imprescindible balancear la libertad de expresión con el potencial que tiene esa libertad para evitar que otros la tengan. En palabras de Del Harvey, VP de Seguridad y Confianza de la compañía desde hace ya más de ocho años, “la libertad de expresión no significa mucho si las personas no se sienten seguras”. 

La compañía parece finalmente caer en la cuenta de que mostrar un gran crecimiento de usuarios, aunque resulte vistoso de cara al accionista, es un indicador que, en realidad, no sirve para nada en una estrategia sostenible de largo plazo si ese crecimiento se debe fundamentalmente a granjas de seguidores falsos, a cuentas falsas y bots creados por actores que intentan simular seguimientos multitudinarios que no existen, o trolls que pretenden silenciar a otros mediante la agresión.  Como comentábamos el otro día, el gran problema de muchas compañías, la santificación del indicador equivocado hasta el punto de llegar a pensar que una base de datos de usuarios es siempre mejor cuanto más grande, aunque en realidad termine siendo un enorme montón de basura inútil o potencialmente perjudicial, una fuente de sanciones o de problemas.

En el caso de Twitter, el momento de verse prestando testimonio ante el Congreso de los Estados Unidos para intentar explicar el uso por parte de Rusia de cuentas falsas para influenciar las elecciones presidenciales puede haber actuado como una llamada de alerta: el número de usuarios no necesariamente es un indicador adecuado de crecimiento, y podría ser el momento de sacar la basura. Mejor tener una red más pequeña de usuarios genuinos, con cara y ojos – o de bots que supongan servicios útiles y con sentido – que crecer mucho gracias a fenómenos artificiales que, además, terminan generando problemas evidentes. La cada vez más patente necesidad de diferenciar estrategias de crecimiento a toda costa, frente a otras más orientadas al crecimiento sostenible. Perder número de usuarios, para intentar mantener una red en la que sea posible un uso razonable, un sitio donde puedas compartir cosas sin que un clima de profunda negatividad y ataques constantes te lleve a arrepentirte de haberlo hecho y a pensar que estás mejor abandonando esa red o limitándote a utilizarla de modo pasivo, como simple lurker.

Si Twitter finalmente ve la luz y mantiene esta actitud, bienvenida sea. ¿Puede llegar a ser capaz de eliminar todos los trolls y las cuentas falsas? Posiblemente no. La lucha entre quienes crean grandes cantidades de cuentas para simular un apoyo amplio y los sistemas de detección es similar a la de la película Blade Runner: robots intentando parecer humanos simulando acciones habituales en el comportamiento humano, hasta el punto de que es preciso que la compañía se arme con  algoritmos y pruebas diagnósticas que los descubran, una auténtica carrera de armamentos entre la inteligencia artificial necesaria para que una cuenta parezca genuina frente a la inteligencia artificial necesaria para descubrir a las que no lo son. Pero todo esfuerzo en ese sentido puede terminar siendo una buena inversión, una que realmente permita que un usuario pueda utilizar Twitter con normalidad, sin sentirse en medio de un montón de basura, rodeado de trolls que le insultan y amenazan por cualquier motivo, un sitio en el que arriesgarte a compartir una opinión conlleva casi tener que hacerse un seguro de vida. Esa progresión del nivel de toxicidad, decididamente, no era sostenible. Una triste metáfora que dice mucho de las sociedades humanas, pero que toda compañía, sobre todo en el ámbito de lo social, va a tener que considerar en el futuro.

 

Twitter toxicFinalmente, tras muchos años de abusos que llegaron incluso a amenazar la supervivencia de la compañía, Twitter parece que se plantea hacer algo con respecto a la toxicidad que impera en su plataforma, y adquiere Smyte, uno de los servicios que muchos utilizaban para combatirla. Una compañía formada por unas veinte personas, que había recibido hasta el momento unos $6.3 millones de financiación,

Las soluciones de la compañía, fundada en la incubadora Y Combinator en 2015 por tres ingenieros especializados en seguridad y lucha contra el fraude o el spam, permiten poner coto mediante reglas de machine learning derivadas de los datos o de las propia compañía a todo tipo de comportamientos indeseables en la red, desde estafas o phishing, hasta cuestiones como spam, cuentas falsas, bullying, hate speech, insultos o trolling. Inmediatamente tras el anuncio de la adquisición, Twitter cerró la API de Smyte, dejando a los clientes actuales de la compañía sin servicio y provocando airadas quejas.

La interpretación de Twitter de la libertad de expresión siempre me ha llamado la atención por su extremada ingenuidad. La libertad de expresión es, por supuesto, una causa por la que luchar y algo que siempre es necesario defender, pero que al mismo tiempo, precisa de reglas que permitan evitar un abuso que forma parte de la condición humana. Al proteger una supuesta libertad de expresión por encima de todo y sin reglas, se atenta claramente contra la liberta de expresión de quienes son atacados, generándose un entorno que termina convirtiéndose en una espiral de toxicidad, insultos y comportamientos organizados para silenciar o promover un pensamiento único, una plataforma que termina dando más voz a los que acosan, insultan y exhiben un comportamiento más proactivamente agresivo. El balance entre libertad de expresión y una plataforma saludable es algo que Twitter, claramente, nunca ha sabido gestionar bien, y que ha llevado a muchos usuarios a dejar de utilizarla o a adoptar una actitud de simple escucha, sin participación activa.

¿Puede Twitter, embarcada tras varios años discretos en una vuelta al crecimiento en un período de fuerte actividad, ser capaz de introducir reglas que controlen la agresividad, excluyan a los trolls, a los que insultan o a los que organizan estrategias para difundir interesadamente ideologías basadas en el odio? El servicio de Smyte tiene una reputación buena entre sus usuarios y parece que no es un mal primer paso, pero completarlo exigiría el desarrollo de reglas que permitan una exclusión efectiva de quienes violan las reglas. De poco sirve cerrar una cuenta si la persona u organización que se encuentra tras ella puede volver a abrirla con otro nombre de manera prácticamente inmediata y darle visibilidad simplemente siguiéndola desde otras cuentas o comprando seguidores. Es necesario poner en marcha servicios que permitan una exclusión efectiva basados en digital fingerprinting, que al menos dificulten de manera real el mantenimiento de comportamientos o estrategias basadas en el uso de la agresividad.

En ese sentido, existen cada vez más iniciativas para gestionar este tipo de comportamientos. La compañía española eGarante, por ejemplo, ofrece desde hace poco un servicio para prevenir y combatir el acoso en redes sociales como Twitter, basada en la disuasión: permite una recogida de pruebas de esos comportamiento con total validez jurídica certificando las interacciones aunque estas sean posteriormente eliminadas, lo que hace posible una eventual actuación judicial. Una herramienta que conlleva una cierta actitud de “judicialización de la conversación” que posiblemente solo se justifique en casos muy determinados, pero que enmarca al menos una manera de disuadir determinados comportamientos, como las amenazas o la difamación, para los que solo puede entenderse el recurso a la ley como respuesta válida.

Por supuesto, no es sencillo. Diferenciar la agresividad sistemática de la mera sátira o de la crítica razonable no es sencillo, un ese proceso en el que puede haber numerosos falsos positivos, cada uno con una historia detrás. Hay personas que promueven el odio sin necesidad de utilizar términos malsonantes o insultos, simplemente utilizando la ironía o la sátira, que lo hacen únicamente de manera ocasional, o que pretenden pasar por rebeldes, por inconformistas o por iconoclastas mediante ese tipo de estrategias. Algunos muy visibles o con mucho seguimiento, capaces de organizar auténticas revueltas de usuarios o amenazas de boicot si son silenciados. Sin embargo, es algo necesario, como lo es el desarrollo de reglas de convivencia social, si se pretende mantener una estrategia sostenible. La adquisición de Smyte puede marcar un momento interesante en la historia de Twitter: ¿abandona finalmente la compañía su ingenuidad casi infantil en la defensa de una libertad de expresión sin reglas que ha llegado a perjudicar fuertemente su propuesta de valor, o seguirá diciendo que si te insultan, lo mejor es que adoptes la estrategia del avestruz y cierres los ojos para no verlo?

 

Twitter account suspended (IMAGE: Kent Bye, CC BY)Twitter anuncia cambios en su algoritmo destinados a limitar la visibilidad de mensajes considerados ofensivos y de cuentas calificadas como trolls, un movimiento basado en miles de señales de comportamiento que intentarán deducir qué mensajes o cuentas merecen un tratamiento excluyente y los confinarán a espacios de acceso más limitado y de acceso menos habitual dentro de la red social. Facebook, por su parte, afirma haber eliminado 583 millones de cuentas falsas y 865 millones de actualizaciones, la mayor parte spam, en los primeros tres meses de 2018.

Según las aseguradoras de automóvil, hasta un 90% de las reclamaciones que reciben son fraudulentas, pero son generadas por alrededor de un 3% de los conductores. En todas las industrias existen patrones de este tipo: usuarios que incurren en un comportamiento claramente abusivo, y que generan perjuicios de diversos tipos para otro usuarios que se comportan de acuerdo con las reglas. En las redes sociales pasa exactamente lo mismo: un pequeño porcentaje de usuarios no solo no se comportan de la manera esperada, sino que además, pretenden abusar del sistema utilizándolo para fines que, en caso de ser llevados a cabo de manera habitual o masiva, convertirían la actividad en esa red en completamente insostenible. Los spammers, los trolls o los comportamientos abusivos generan perjuicios de muchos tipos, pero las redes sociales, tradicionalmente, han tratado de balancear cuestiones como la libertad de expresión de una manera tan garantista, que este tipo de comportamientos no han sido nunca adecuadamente desincentivados. Además, existen otros factores, como la dificultad de control: en muchos casos, los que incurren en este tipo de comportamientos y son sancionados con la expulsión o el cierre de la cuenta por ello, simplemente se dan la vuelta y abren otra cuenta sin ningún tipo de impedimento con la que continuar esa misma actividad, y así sucesivamente.

En la práctica, las medidas acometidas por Twitter pueden tener las mejores intenciones, pero son una solución muy limitada que oculta la realidad: lo que hay que hacer con el usuario que abusa del sistema y lo utiliza para insultar, hacer spam o acosar a un tercero no es limitar su visibilidad, sino lisa y llanamente, expulsarlo, y además, utilizar todos los medios tecnológicos al alcance de la compañía para evitar que vuelva a abrir otra cuenta. La expulsión sumaria es la única manera real de desincentivar determinados comportamientos que, de hecho, deberíamos calificar como de antisociales, y que por tanto, no deberían tener cabida en una red social. Diariamente denuncio a Twitter cuentas que violan claramente sus políticas de uso, unas políticas claramente expresadas en sus términos de servicio, para llevar a cabo spam: la compañía no hace ABSOLUTAMENTE NADA con esas cuentas. No toma acción de ningún tipo más que permitirme que las bloquee, lo que, obviamente, puede ser una solución limitada para mi problema, pero en modo alguno funciona como solución general. Toda la historia de Twitter responde al mismo problema: un camino alfombrado de buenas intenciones, de medias tintas, y de ausencia real de medidas efectivas.

Dentro de la responsabilidad de administrar una red social está el deber de poner en práctica sus términos de servicio. De nada sirve poner en esos términos de servicio que se sancionará con la expulsión a un usuario que incurra en spam o que utilice la red para acosar o insultar a un tercero, si en la práctica no vamos a  hacer absolutamente nada cuando esos casos se producen. Nada hace más daño a un sistema que las reglas que no se cumplen, o que se convierten en auténticas parodias. La paradoja de las redes sociales es clarísima: es perfectamente probable que su experiencia de uso y su propuesta de valor mejorase de manera muy clara simplemente excluyendo al 3% de usuarios que incurre en prácticas abusivas y antisociales, que las utiliza para hacer spam, que abre múltiples cuentas o que se dedica a insultar en ellas. Una política de expulsión efectiva, que de verdad cerrase esas cuentas y generase dificultades a quienes intentasen volver a abrir una cuenta desde el mismo dispositivo caracterizado mediante técnicas de digital fingerprinting o mediante otro tipo de análisis sería susceptible de generar un gran efecto positivo. Sin embargo, llevadas en muchos casos por la codicia de poder presentar un crecimiento o unas métricas de actividad más elevadas, las redes sociales tienden a retrasar o ignorar ese tipo de políticas, provocando un efecto nocivo que reduce la propuesta de valor para el resto de usuarios.

¿Es realmente tan difícil plantear unas reglas y cumplirlas? Hace mucho tiempo que soy de la opinión de que la inmensa mayoría de los problemas derivados de las redes sociales se solucionarían con una aplicación fehaciente de sus términos de uso y, básicamente, con mano dura. En entornos sociales, las reglas deben ser aplicadas de manera estricta si se quiere ofrecer una experiencia libre de abusos, y el pequeño porcentaje de usuarios dispuestos a abusar de esas reglas son, en la práctica, responsables del 90% de los problemas que se generan. Fuera de la red, la mayoría de las normas lógicas de convivencia se aplican de manera inmediata y sin temblarle el pulso a nadie, algo que vemos como completamente natural. ¿A qué estamos esperando para aplicar en la red reglas que cualquiera vería completamente natural que se aplicasen fuera de la red?