IMAGE: Clker - CC0 Creative CommonsFinalmente, todo indica que Twitter se ha decidido a actuar con decisión con respecto al que era su gran problema, del que habíamos hablado en numerosas ocasiones: la escasa calidad de una red infestada de cuentas falsas, bots, trolls y otras especies desagradables: durante los meses de mayo y junio, la compañía ha suspendido unos setenta millones de cuentas, más de un millón al día, en un intento por reducir los usos perniciosos de su red, y todo indica que la tendencia continúa en lo que llevamos del mes de julio.

La compañía está llevando a cabo esta limpieza en un momento en el que podía presumir de tener las mejores cifras de crecimiento de los últimos tiempos, pero lógicamente, una operación de limpieza semejante va a afectar esa evolución, y posiblemente conlleve que la compañía muestre crecimiento negativo en su número de usuarios durante algún tiempo. Tras la adquisición de Smyte, todo indica que, finalmente, la compañía ha terminado de clarificar su posición sobre la toxicidad y la supuesta protección de la libertad de expresión a toda costa: los que se definían a sí mismos como “the free speech wing of the free speech party”, se han dado cuenta de que, en la dura realidad, las posiciones idealistas tienen un límite, y que es imprescindible balancear la libertad de expresión con el potencial que tiene esa libertad para evitar que otros la tengan. En palabras de Del Harvey, VP de Seguridad y Confianza de la compañía desde hace ya más de ocho años, “la libertad de expresión no significa mucho si las personas no se sienten seguras”. 

La compañía parece finalmente caer en la cuenta de que mostrar un gran crecimiento de usuarios, aunque resulte vistoso de cara al accionista, es un indicador que, en realidad, no sirve para nada en una estrategia sostenible de largo plazo si ese crecimiento se debe fundamentalmente a granjas de seguidores falsos, a cuentas falsas y bots creados por actores que intentan simular seguimientos multitudinarios que no existen, o trolls que pretenden silenciar a otros mediante la agresión.  Como comentábamos el otro día, el gran problema de muchas compañías, la santificación del indicador equivocado hasta el punto de llegar a pensar que una base de datos de usuarios es siempre mejor cuanto más grande, aunque en realidad termine siendo un enorme montón de basura inútil o potencialmente perjudicial, una fuente de sanciones o de problemas.

En el caso de Twitter, el momento de verse prestando testimonio ante el Congreso de los Estados Unidos para intentar explicar el uso por parte de Rusia de cuentas falsas para influenciar las elecciones presidenciales puede haber actuado como una llamada de alerta: el número de usuarios no necesariamente es un indicador adecuado de crecimiento, y podría ser el momento de sacar la basura. Mejor tener una red más pequeña de usuarios genuinos, con cara y ojos – o de bots que supongan servicios útiles y con sentido – que crecer mucho gracias a fenómenos artificiales que, además, terminan generando problemas evidentes. La cada vez más patente necesidad de diferenciar estrategias de crecimiento a toda costa, frente a otras más orientadas al crecimiento sostenible. Perder número de usuarios, para intentar mantener una red en la que sea posible un uso razonable, un sitio donde puedas compartir cosas sin que un clima de profunda negatividad y ataques constantes te lleve a arrepentirte de haberlo hecho y a pensar que estás mejor abandonando esa red o limitándote a utilizarla de modo pasivo, como simple lurker.

Si Twitter finalmente ve la luz y mantiene esta actitud, bienvenida sea. ¿Puede llegar a ser capaz de eliminar todos los trolls y las cuentas falsas? Posiblemente no. La lucha entre quienes crean grandes cantidades de cuentas para simular un apoyo amplio y los sistemas de detección es similar a la de la película Blade Runner: robots intentando parecer humanos simulando acciones habituales en el comportamiento humano, hasta el punto de que es preciso que la compañía se arme con  algoritmos y pruebas diagnósticas que los descubran, una auténtica carrera de armamentos entre la inteligencia artificial necesaria para que una cuenta parezca genuina frente a la inteligencia artificial necesaria para descubrir a las que no lo son. Pero todo esfuerzo en ese sentido puede terminar siendo una buena inversión, una que realmente permita que un usuario pueda utilizar Twitter con normalidad, sin sentirse en medio de un montón de basura, rodeado de trolls que le insultan y amenazan por cualquier motivo, un sitio en el que arriesgarte a compartir una opinión conlleva casi tener que hacerse un seguro de vida. Esa progresión del nivel de toxicidad, decididamente, no era sostenible. Una triste metáfora que dice mucho de las sociedades humanas, pero que toda compañía, sobre todo en el ámbito de lo social, va a tener que considerar en el futuro.

 

Twitter toxicFinalmente, tras muchos años de abusos que llegaron incluso a amenazar la supervivencia de la compañía, Twitter parece que se plantea hacer algo con respecto a la toxicidad que impera en su plataforma, y adquiere Smyte, uno de los servicios que muchos utilizaban para combatirla. Una compañía formada por unas veinte personas, que había recibido hasta el momento unos $6.3 millones de financiación,

Las soluciones de la compañía, fundada en la incubadora Y Combinator en 2015 por tres ingenieros especializados en seguridad y lucha contra el fraude o el spam, permiten poner coto mediante reglas de machine learning derivadas de los datos o de las propia compañía a todo tipo de comportamientos indeseables en la red, desde estafas o phishing, hasta cuestiones como spam, cuentas falsas, bullying, hate speech, insultos o trolling. Inmediatamente tras el anuncio de la adquisición, Twitter cerró la API de Smyte, dejando a los clientes actuales de la compañía sin servicio y provocando airadas quejas.

La interpretación de Twitter de la libertad de expresión siempre me ha llamado la atención por su extremada ingenuidad. La libertad de expresión es, por supuesto, una causa por la que luchar y algo que siempre es necesario defender, pero que al mismo tiempo, precisa de reglas que permitan evitar un abuso que forma parte de la condición humana. Al proteger una supuesta libertad de expresión por encima de todo y sin reglas, se atenta claramente contra la liberta de expresión de quienes son atacados, generándose un entorno que termina convirtiéndose en una espiral de toxicidad, insultos y comportamientos organizados para silenciar o promover un pensamiento único, una plataforma que termina dando más voz a los que acosan, insultan y exhiben un comportamiento más proactivamente agresivo. El balance entre libertad de expresión y una plataforma saludable es algo que Twitter, claramente, nunca ha sabido gestionar bien, y que ha llevado a muchos usuarios a dejar de utilizarla o a adoptar una actitud de simple escucha, sin participación activa.

¿Puede Twitter, embarcada tras varios años discretos en una vuelta al crecimiento en un período de fuerte actividad, ser capaz de introducir reglas que controlen la agresividad, excluyan a los trolls, a los que insultan o a los que organizan estrategias para difundir interesadamente ideologías basadas en el odio? El servicio de Smyte tiene una reputación buena entre sus usuarios y parece que no es un mal primer paso, pero completarlo exigiría el desarrollo de reglas que permitan una exclusión efectiva de quienes violan las reglas. De poco sirve cerrar una cuenta si la persona u organización que se encuentra tras ella puede volver a abrirla con otro nombre de manera prácticamente inmediata y darle visibilidad simplemente siguiéndola desde otras cuentas o comprando seguidores. Es necesario poner en marcha servicios que permitan una exclusión efectiva basados en digital fingerprinting, que al menos dificulten de manera real el mantenimiento de comportamientos o estrategias basadas en el uso de la agresividad.

En ese sentido, existen cada vez más iniciativas para gestionar este tipo de comportamientos. La compañía española eGarante, por ejemplo, ofrece desde hace poco un servicio para prevenir y combatir el acoso en redes sociales como Twitter, basada en la disuasión: permite una recogida de pruebas de esos comportamiento con total validez jurídica certificando las interacciones aunque estas sean posteriormente eliminadas, lo que hace posible una eventual actuación judicial. Una herramienta que conlleva una cierta actitud de “judicialización de la conversación” que posiblemente solo se justifique en casos muy determinados, pero que enmarca al menos una manera de disuadir determinados comportamientos, como las amenazas o la difamación, para los que solo puede entenderse el recurso a la ley como respuesta válida.

Por supuesto, no es sencillo. Diferenciar la agresividad sistemática de la mera sátira o de la crítica razonable no es sencillo, un ese proceso en el que puede haber numerosos falsos positivos, cada uno con una historia detrás. Hay personas que promueven el odio sin necesidad de utilizar términos malsonantes o insultos, simplemente utilizando la ironía o la sátira, que lo hacen únicamente de manera ocasional, o que pretenden pasar por rebeldes, por inconformistas o por iconoclastas mediante ese tipo de estrategias. Algunos muy visibles o con mucho seguimiento, capaces de organizar auténticas revueltas de usuarios o amenazas de boicot si son silenciados. Sin embargo, es algo necesario, como lo es el desarrollo de reglas de convivencia social, si se pretende mantener una estrategia sostenible. La adquisición de Smyte puede marcar un momento interesante en la historia de Twitter: ¿abandona finalmente la compañía su ingenuidad casi infantil en la defensa de una libertad de expresión sin reglas que ha llegado a perjudicar fuertemente su propuesta de valor, o seguirá diciendo que si te insultan, lo mejor es que adoptes la estrategia del avestruz y cierres los ojos para no verlo?

 

IMAGE: Andriano - 123RFSi no has tenido ocasión de leer el auto de 35 páginas del fiscal especial Robert S. Mueller sobre la injerencia rusa en las últimas elecciones norteamericanas, es un buen momento para hacerlo. Como se esperaba, el fiscal, ex-director durante doce años del FBI, ha resultado ser un investigador sumamente riguroso, metódico y concluyente, y ha determinado que todo lo que intuíamos sobre la actuación de Rusia no solo estaba fundamentado, sino que iba incluso muchísimo más allá. Tras la lectura del informe, las pruebas son evidentes: en unos meses, hemos pasado de lo que muchos consideraban prácticamente teorías conspiranoicas, a tener claro que Rusia ha desarrollado y perfeccionado la mayor maquinaria de manipulación y sabotaje de la democracia jamás conocida.

En los enlaces he querido recopilar las noticias que me han parecido más interesantes al respecto de entre lo muchísimo publicado en los últimos dos días. A todos los efectos, Rusia ha literalmente violado la democracia norteamericana hasta unos extremos increíbles, creando toda una estructura destinada a tal efecto, con una financiación millonaria y unas técnicas enormemente sofisticadas que incluían el robo de identidades de norteamericanos y la concentración de las acciones en los estados con sondeos más igualados, acciones destinadas a inflamar a la opinión pública y provocar una división nunca vista en el electorado.

La influencia de Rusia en el resultado de las últimas elecciones presidenciales norteamericanas es ahora, a la luz de las investigaciones, completamente innegable: el presidente que ocupa la Casa Blanca está ahí como resultado de una campaña especialmente diseñada para humillar y destrozar la democracia norteamericana, y en realidad, nunca debería haber llegado a su puesto. Para que pudiese llegar a hacerlo, una agencia gubernamental rusa, la Internet Research Agency, creó miles de cuentas falsas en redes sociales, compró publicidad, contactó e influenció a cientos de miles de norteamericanos y manejó un presupuesto de millones de dólares destinados a crear división en el electorado y a influenciar el resultado de las elecciones. Lo hizo, además, con tanta facilidad y de manera tan rutinaria, que resulta evidente que se trata de procedimientos desarrollados no solo en su propio país a lo largo de varios procesos electorales, sino en elecciones en otros muchos países de su órbita y, posiblemente, de todo el mundo. 

El problema, claro está, no es simplemente que la democracia norteamericana haya sido pisoteada y humillada hasta el límite, sino que además, no existe ninguna solución factible para evitarlo. Que se manipulen las elecciones norteamericanas y se consiga situar a un candidato de auténtico chiste en la Casa Blanca no deja de tener algo de justicia poética: después de todo, los Estados Unidos cuentan con un larguísimo historial de injerencias en procesos electorales de otros países, y con casos en los que han logrado situar a gobernantes corruptos o a marionetas dispuestas a actuar de manera favorable a sus intereses mediante la financiación de campañas o mediante el recurso a métodos no del todo confesables. Todo un turbio pasado… para terminar cayendo con aspecto de absoluta ingenuidad ante un país que ha sublimado hasta el límite las técnicas de manipulación mediante el uso de redes sociales.

No, el problema no es de los Estados Unidos: va mucho más allá, y afecta a la mismísima esencia de la democracia. Las medidas tomadas por compañías como Facebook duplicando el número de personas dedicadas a la supervisión de contenidos o los lamentos de Twitter al respecto no sirven ante técnicas que consiguen simular el comportamiento de ciudadanos genuinos norteamericanos aunque estén radicados en Vladivostok: en el actual estado de las redes sociales, todos los gatos son pardos, las compañías que las gestionan no quieren eliminar perfiles fraudulentos para no perjudicar sus cifras de crecimiento,y diferenciar comportamientos reales de otros ficticios se convierte en una tarea prácticamente imposible. Con los medios adecuados, una persona desde Rusia puede perfectamente simular un perfecto manejo del idioma, una conexión desde cualquier sitio en los Estados Unidos, una identidad robada y hasta un perfil creíble con cuentas en varias redes sociales y una actividad aparentemente genuina. Rusia ha conseguido una maquinaria capaz de infiltrar cualquier proceso electoral, en cualquier país, y de generar y polarizar estados de opinión con la misma facilidad que quien diseña campañas electorales. Y seguramente, con más influencia en el voto de muchas personas que esas mismas campañas electorales de las que la mayoría de los ciudadanos ya están hartos antes de que empiecen.

Las técnicas de uso de redes sociales utilizadas por algunos políticos palidecen cuando leemos algunas de las tácticas utilizadas por Rusia: nada que ver. Y por supuesto, nada que una democracia pueda superar con los mecanismos de control actuales. Todos los procesos electorales están ahora bajo sospecha.

A todos los efectos, la democracia deja de ser técnicamente posible cuando la injerencia de una potencia extranjera se vuelve tan decisiva y tan sencilla de ejecutar, que resulta sencillo que muchos de los votantes de un país sean influenciados por factores espurios. El problema es tan grave como que la democracia actual carece de metodologías que le permitan defenderse de semejante intrusión, que posibiliten discernir entre las opiniones de ciudadanos reales y ficticios. Las redes sociales han creado un entorno en el que la manipulación es demasiado fácil, demasiado sencilla, al alcance de cualquiera con los medios adecuados. Del mismo modo que se manipulan campañas comerciales y se segmentan mercados con los mejores francotiradores que permiten discernir variables antes imposibles de controlar, ahora se puede hacer llegar un mensaje inflamatorio o divisivo precisamente a aquel que resulta más sensible a él, y hasta darle formas específicas para que llegue a los que puedan ser influenciados por él de una manera más clara. No existe una manera sencilla de evitarlo, porque el problema está en el mismísimo diseño de las redes sociales tal y como las conocemos. Rusia ha aprendido a manipular la democracia de una manera que la misma democracia no puede controlar, neutralizar ni impedir, y en este momento, todo proceso electoral en cualquier país está sujeto a la sospecha de una posible influencia rusa, bien para sesgar el poder político a favor de sus intereses, o simplemente para practicar sus habilidades. Cuestiones como que Vladimir Putin haya podido ser elegido, reelegido, sucedido posteriormente por un títere suyo y vuelto a elegir una vez más, o que varias ex-repúblicas soviéticas tengan ahora presidentes pro-rusos no son casualidades de la vida: son fruto de una maquinaria ensayada y perfeccionada de manipulación social a gran escala, capaz de sesgar cualquier proceso electoral.

¿Cómo restaurar la confianza en la democracia en un mundo en el que un país ha conseguido poner a punto una maquinaria perfectamente diseñada para sabotearla y distorsionarla?

Será la costumbre digo yo. El hecho de que me pongan a parir y qué ya no esté una semana sin dormir. No te voy a mentir. Estas cosas siempre te van a afectar aunque no lo admitas. Puedes llegar a tener 100 comentarios. 99 positivos y uno negativo. Lo único que pensarás serás en aquel que se haya metido contigo.

haterDerechos de foto de Fotolia

Criticar no es trolear

Parece que está en la naturaleza del ser humano de querer ser amado por todo el mundo. Sin excepción. Si lo piensas está claro que eso no es posible pero aun así la sensación del rechazo no es agradable.

Hoy en día la gente llama fácilmente troll y hater a todo el mundo que simplemente critica tus acciones de forma objetiva. Hay gente que no te quiere fastidiar sino que simplemente te ayuda a mejorar. Está claro que no es fácil tomarse este tipo de feedback constructivo bien si no lo hemos pedido. Aun así deberíamos escuchar estas voces críticas.

Incluso las más violentas te aportan valor. Hablemos de los haters. Típicamente son gente con mucho tiempo libre y con ganas de fastidiar. Te dicen todo aquello que no te gusta escuchar y mucho más.

El consejo típico es “bah, ignóralos, esa gente nada más quiere fastidiar”. Cierto, pero… ¿Y si les hiciéramos un poco de caso?

Buscando la excelencia con ayuda de los haters

En el mundo de la producción existe el concepto de Six Sigma. Se busca la excelencia reduciendo fallos en la producción a algo tipo 1 error sobre 1.000.000 de unidades producidas. ¿Y si buscásemos esta excelencia también en el marketing?

Al final cualquier crítica, justificada o no se basa en algún hecho por muy pequeño que sea que se puede mejorar. En vez de ignorar lo que nos dicen los haters podríamos utilizarlo para crear una versión mejor de nosotros o de nuestro producto.

Pensando en términos de venganza. ¿No te hace sentir mejor que en vez de hundirte te están ayudando a ser todavía mejor? No permitas que nadie tenga el poder de derrumbarte con palabras.

Puedes darle la vuelta a la tortilla. No faltes nunca el respeto. No actúes como quieren que lo hagas sino como nunca se lo esperarían. No tengas la esperanza de darle la vuelta a un hater. Son lo que son. Al final del día lo que importa eres tú y tu proyecto. Es lo único que te debe preocupar.

IMAGE: Phillip John Mearman - 123RFMe ha resultado muy interesante el estudio publicado utilizando datos de la gestión de comunidades de Wikipedia, Ex Machina: personal attacks seen at scale, en el que se estudió un conjunto muy elevado de comentarios etiquetados manual o automáticamente con el fin de determinar patrones habituales en el fenómeno del abuso. Wikipedia no solo es una de las mayores comunidades online del mundo, sino que además, el buen funcionamiento del sitio depende en gran medida de una comunidad sana y equilibrada. Del funcionamiento de la comunidad de Wikipedia y, sobre todo, de sus dinámicas de abuso, pueden surgir conclusiones sumamente interesantes para gestores de comunidad de todo tipo.

La primera conclusión parece clara, y es la que se destaca en titulares: un pequeño número de usuarios altamente tóxicos son responsables de un porcentaje elevado del abuso en la página. Algo que coincide claramente con mi experiencia en esta página, en la que en varias ocasiones he podido presenciar en primera fila cómo un comentarista pasaba de algún comentario tóxico o insultante ocasional, a una dinámica en la que pasaba a intervenir en absolutamente todas las conversaciones, y siempre con una dinámica insultante, fuese el que fuese el tema tratado. Lógicamente, cuando todo lo que dices sobre cualquier tema es recibido con hostilidad e insultos, la barrera de la tolerancia y de la supuesta libertad de expresión salta por los aires, la persona está simplemente convirtiéndose en un obstáculo al buen funcionamiento de la comunidad, una especie de “ruido de fondo” molesto, y debe ser expulsada.

En el caso de Wikipedia, 34 usuarios calificados como “altamente tóxicos” eran responsables de un 9% de los ataques personales en la página, lo que implica que puede obtenerse un resultado muy bueno simplemente aislando a esos usuarios y expulsándolos de la comunidad. En cambio, el 80% restante de ataques personales eran llevados a cabo por un grupo de unos 9,000 usuarios que habían realizado menos de cinco comentarios insultantes cada uno, algo que puede perfectamente responder al hecho de que “todos nos enfadamos en algún momento” y que no necesariamente debería resultar en una descalificación para la participación, sino ser considerado una dinámica de participación, dentro de un orden, razonablemente normal.

Desde mi experiencia, la clave está en el balance personal, en algo similar a lo que en las primitivas BBS conocíamos como el ratio de un usuario: aunque generalmente se aplicaba a la cantidad de bits aportados frente a bits descargados, parece claro que podríamos hablar de ratio como del porcentaje de comentarios aportados por un usuario que resultan insultantes, y utilizarlo como elemento de cualificación – o eventualmente, descalificación – a partir de un umbral determinado. Alguien que aporta habitualmente comentarios de calidad, pero que en ocasiones se irrita con determinadas actitudes o temas e incurre en el insulto, es completamente diferente de un usuario que únicamente participa insultando, que entra en una dinámica personal de insulto sistemático, de “misión en la vida” o de “terapia personal”, como he conocido unos cuantos a lo largo de ya catorce años de gestión de esta página. En esos casos, es claramente mejor expulsar al usuario, y poner todos los medios posibles para evitar que vuelva a entrar. Esos comportamientos rayanos en lo obsesivo, además, pueden ser identificados relativamente rápido, y deben ser detenidos rápidamente porque suelen mostrar elementos de escalada con escasas vueltas atrás.

Otro problema evidente en la gestión de comunidades está en el anonimato. En el caso de Wikipedia, el 43% de todos los comentarios proviene de usuarios anónimos, aunque muchos de ellos habían comentado tan solo una vez y el número total de comentarios era veinte veces menor que los aportados por usuarios registrados. Los usuarios anónimos terminaban siendo seis veces más activos a la hora de insultar que los registrados, pero dada la diferencia de volumen, contribuían en conjunto a menos de la mitad de los ataques, lo que conlleva que la mayoría de los ataques provenían de usuarios con un perfil registrado en la página. Acabar con el anonimato, por tanto, puede poner fin a cierta cantidad de comentarios insultantes, pero no es la razón fundamental de que estos existan, y siempre cabe la posibilidad de que alguien que puntualmente quiere insultar, se abra un perfil en el sitio (en el caso de Wikipedia es importante destacar que se considera anónimo a todo aquel que carece de perfil, pero que se puede abrir un perfil perfectamente sin aportar nada más que un seudónimo). Existe una correlación clarísima entre participación habitual y creación de perfil, lo que desde mi punto de vista apoya el uso de mecanismos basados en la lista blanca: el comentarista habitual merece mejor tratamiento que el simplemente aparece un día y deja caer un comentario. Mientras la gestión de los primeros puede hacerse prácticamente por excepción, la de los segundos puede plantearse en modo manual o dejarla en manos de sistemas parcialmente automatizados, en función del volumen.

En el estudio se diseña una metodología para evitar ataques personales y escaladas dialécticas mediante el uso de crowdsourcing (alertas de los propios usuarios mediante mecanismos de evaluación) por un lado, y de sistemas de machine learning por el otro entrenados con comentarios para ser capaces de reconocer insultos o spam, sistemas que pueden dar paso a la acción puntual de moderadores en los casos en que se estime necesario. Sin duda, un área prometedora de estudio: si bien en mi caso hace ya mucho tiempo que consideré este tema prácticamente resuelto mediante una combinación de listas negras y blancas, y manteniendo el derecho al anonimato porque me parecía que aportaba más de lo que podía perjudicar, el buen funcionamiento de la comunidad de esta página se debe fundamentalmente a su tamaño relativamente pequeño, y al hecho de que reviso todos los comentarios personalmente en el momento en que se producen. A partir del momento en que esa tarea excede la dedicación de una persona, como de hecho ocurre en la mayor parte de los medios de comunicación, el desarrollo de metodologías basadas en crowdsourcing o machine learning puede ofrecer muy buenas posibilidades a los gestores de comunidad.

La posibilidad de generar comunidades en torno a un tema es uno de los mejores aportes de internet. Conseguir que esas comunidades funcionen adecuadamente, en lugar de convertirse en nidos de trolls que campan a sus anchas, insultan, acosan y dificultan la comunicación es algo fundamental para el buen funcionamiento de una página, como de hecho demuestran los problemas experimentados por redes como Twitter, incapaces de controlar este tipo de dinámicas, a lo largo de su historia. Y en ese sentido, este estudio sobre la comunidad de Wikipedia es de lo mejor que he visto en ese sentido: conclusiones, en realidad, muy de sentido común, pero que siempre es bueno ver reflejadas en un análisis cuantitativamente serio y significativo. Veremos si sirve de inspiración a algunos…