IMAGE: Phillip John Mearman - 123RFMe ha resultado muy interesante el estudio publicado utilizando datos de la gestión de comunidades de Wikipedia, Ex Machina: personal attacks seen at scale, en el que se estudió un conjunto muy elevado de comentarios etiquetados manual o automáticamente con el fin de determinar patrones habituales en el fenómeno del abuso. Wikipedia no solo es una de las mayores comunidades online del mundo, sino que además, el buen funcionamiento del sitio depende en gran medida de una comunidad sana y equilibrada. Del funcionamiento de la comunidad de Wikipedia y, sobre todo, de sus dinámicas de abuso, pueden surgir conclusiones sumamente interesantes para gestores de comunidad de todo tipo.

La primera conclusión parece clara, y es la que se destaca en titulares: un pequeño número de usuarios altamente tóxicos son responsables de un porcentaje elevado del abuso en la página. Algo que coincide claramente con mi experiencia en esta página, en la que en varias ocasiones he podido presenciar en primera fila cómo un comentarista pasaba de algún comentario tóxico o insultante ocasional, a una dinámica en la que pasaba a intervenir en absolutamente todas las conversaciones, y siempre con una dinámica insultante, fuese el que fuese el tema tratado. Lógicamente, cuando todo lo que dices sobre cualquier tema es recibido con hostilidad e insultos, la barrera de la tolerancia y de la supuesta libertad de expresión salta por los aires, la persona está simplemente convirtiéndose en un obstáculo al buen funcionamiento de la comunidad, una especie de “ruido de fondo” molesto, y debe ser expulsada.

En el caso de Wikipedia, 34 usuarios calificados como “altamente tóxicos” eran responsables de un 9% de los ataques personales en la página, lo que implica que puede obtenerse un resultado muy bueno simplemente aislando a esos usuarios y expulsándolos de la comunidad. En cambio, el 80% restante de ataques personales eran llevados a cabo por un grupo de unos 9,000 usuarios que habían realizado menos de cinco comentarios insultantes cada uno, algo que puede perfectamente responder al hecho de que “todos nos enfadamos en algún momento” y que no necesariamente debería resultar en una descalificación para la participación, sino ser considerado una dinámica de participación, dentro de un orden, razonablemente normal.

Desde mi experiencia, la clave está en el balance personal, en algo similar a lo que en las primitivas BBS conocíamos como el ratio de un usuario: aunque generalmente se aplicaba a la cantidad de bits aportados frente a bits descargados, parece claro que podríamos hablar de ratio como del porcentaje de comentarios aportados por un usuario que resultan insultantes, y utilizarlo como elemento de cualificación – o eventualmente, descalificación – a partir de un umbral determinado. Alguien que aporta habitualmente comentarios de calidad, pero que en ocasiones se irrita con determinadas actitudes o temas e incurre en el insulto, es completamente diferente de un usuario que únicamente participa insultando, que entra en una dinámica personal de insulto sistemático, de “misión en la vida” o de “terapia personal”, como he conocido unos cuantos a lo largo de ya catorce años de gestión de esta página. En esos casos, es claramente mejor expulsar al usuario, y poner todos los medios posibles para evitar que vuelva a entrar. Esos comportamientos rayanos en lo obsesivo, además, pueden ser identificados relativamente rápido, y deben ser detenidos rápidamente porque suelen mostrar elementos de escalada con escasas vueltas atrás.

Otro problema evidente en la gestión de comunidades está en el anonimato. En el caso de Wikipedia, el 43% de todos los comentarios proviene de usuarios anónimos, aunque muchos de ellos habían comentado tan solo una vez y el número total de comentarios era veinte veces menor que los aportados por usuarios registrados. Los usuarios anónimos terminaban siendo seis veces más activos a la hora de insultar que los registrados, pero dada la diferencia de volumen, contribuían en conjunto a menos de la mitad de los ataques, lo que conlleva que la mayoría de los ataques provenían de usuarios con un perfil registrado en la página. Acabar con el anonimato, por tanto, puede poner fin a cierta cantidad de comentarios insultantes, pero no es la razón fundamental de que estos existan, y siempre cabe la posibilidad de que alguien que puntualmente quiere insultar, se abra un perfil en el sitio (en el caso de Wikipedia es importante destacar que se considera anónimo a todo aquel que carece de perfil, pero que se puede abrir un perfil perfectamente sin aportar nada más que un seudónimo). Existe una correlación clarísima entre participación habitual y creación de perfil, lo que desde mi punto de vista apoya el uso de mecanismos basados en la lista blanca: el comentarista habitual merece mejor tratamiento que el simplemente aparece un día y deja caer un comentario. Mientras la gestión de los primeros puede hacerse prácticamente por excepción, la de los segundos puede plantearse en modo manual o dejarla en manos de sistemas parcialmente automatizados, en función del volumen.

En el estudio se diseña una metodología para evitar ataques personales y escaladas dialécticas mediante el uso de crowdsourcing (alertas de los propios usuarios mediante mecanismos de evaluación) por un lado, y de sistemas de machine learning por el otro entrenados con comentarios para ser capaces de reconocer insultos o spam, sistemas que pueden dar paso a la acción puntual de moderadores en los casos en que se estime necesario. Sin duda, un área prometedora de estudio: si bien en mi caso hace ya mucho tiempo que consideré este tema prácticamente resuelto mediante una combinación de listas negras y blancas, y manteniendo el derecho al anonimato porque me parecía que aportaba más de lo que podía perjudicar, el buen funcionamiento de la comunidad de esta página se debe fundamentalmente a su tamaño relativamente pequeño, y al hecho de que reviso todos los comentarios personalmente en el momento en que se producen. A partir del momento en que esa tarea excede la dedicación de una persona, como de hecho ocurre en la mayor parte de los medios de comunicación, el desarrollo de metodologías basadas en crowdsourcing o machine learning puede ofrecer muy buenas posibilidades a los gestores de comunidad.

La posibilidad de generar comunidades en torno a un tema es uno de los mejores aportes de internet. Conseguir que esas comunidades funcionen adecuadamente, en lugar de convertirse en nidos de trolls que campan a sus anchas, insultan, acosan y dificultan la comunicación es algo fundamental para el buen funcionamiento de una página, como de hecho demuestran los problemas experimentados por redes como Twitter, incapaces de controlar este tipo de dinámicas, a lo largo de su historia. Y en ese sentido, este estudio sobre la comunidad de Wikipedia es de lo mejor que he visto en ese sentido: conclusiones, en realidad, muy de sentido común, pero que siempre es bueno ver reflejadas en un análisis cuantitativamente serio y significativo. Veremos si sirve de inspiración a algunos…

 

The Exorcist (1973)Dos interesantes artículos hoy hacen referencia a experiencias que han resultado ser exitosas a la hora de eliminar de determinados servicios problemas como las noticias falsas o las dinámicas de acoso e insulto.

Por un lado, Fusion publica What GitHub did to kill its trolls, una pieza larga y detallada sobre cómo la mayor plataforma de publicación y colaboración para software de código abierto del mundo fue capaz de conjurar un problema de dinámicas nocivas de interacción que amenazaba con convertir en muy incómoda la interacción en la página, que en el año 2014 llevaba ya algún tiempo viendo abandonos de usuarios que manifestaban quejas de trolling, bullying, machismo, abuso, acoso e insultos.

¿La receta? Equipos de gestión creados con personas de orígenes muy diversos, con muy diferentes sensibilidades con respecto a los distintos temas, y muy comprometidos con su labor, con la idea no tanto de crear nuevas normas de conducta, sino de detectar todos los resquicios del funcionamiento del sitio que permitían o incluso fomentaban la aparición de ese tipo de dinámicas. Una respuesta muy diferente a la tomada por redes como Twitter, en las que esas dinámicas no son tristemente la excepción sino la norma, y que como mucho, llegan a ofrecer a los usuarios herramientas para que puedan llevar a cabo la absurda “estrategia del avestruz”, para poder ocultarse a sí mismos las dinámicas abusivas, pretendiendo aquello de “si no puedo ver el problema, ya no existe”.

En el segundo artículo, titulado Why Snapchat and Apple don’t have a fake news problem, Buzzfeed especula sobre las razones por las que determinadas plataformas de consumo de noticias, como Apple News o Snapchat Discover, no tienen los problemas derivados de la publicación de noticias falsas que sí sufren otras como Facebook. La respuesta, en este caso, parece clara: un nivel de control y supervisión mucho más rígido y manual, una aprobación particularizada de cada una de las fuentes, y mecanismos de interacción que no tienden tanto a premiar lo social entendido como acumulación de Likes, de follows o de algoritmos que puedan ser manipulados, sino mediante reglas mucho más sencillas, como la exposición cronológica.

No hablamos de casos aislados o poco importantes cuantitativamente: Snapchat, con sus 150 millones de usuarios diarios, supera ya en 10 millones de usuarios activos a redes como Twitter, y obtiene importantes ingresos gracias a Discover, la plataforma de compartición de noticias en la que muchísimos usuarios fundamentalmente adolescentes, que resultan muy difíciles de alcanzar para la mayoría de los medios, leen noticias de una serie de publicaciones que pasan por un riguroso proceso de admisión y control. No hablamos de un sistema en el que grupos de adolescentes macedonios puedan dedicarse a ganar un dinero generando noticias falsas que se convierten en virales, ni donde publicaciones de dudosa reputación puedan inyectar noticias completamente falsas e inventadas, sino de un sitio con reglas serias donde el derecho de admisión está claramente señalizado y tiene un coste, en absoluto trivial. En el caso de Apple News, hablamos de 70 millones de usuarios activos y de contenido disponible de más de 4,000 publicaciones, pero en la que el acceso está regulado por el miso tipo de reglas rígidas y conocidas que gobiernan la tienda de aplicaciones de la compañía: incumple las normas, y te verás rápidamente excluido.

¿De qué estamos hablando? Claramente, la responsabilidad de gestionar una plataforma debe ir bastante más allá de la posibilidad de crearla técnicamente. Si no aplicamos principios de gestión claros e inequívocos, el destino es el que es: caer víctimas de algo tan imparable como la mismísima naturaleza humana. Los problemas de las plataformas, en realidad, no lo son tanto de las plataformas como de sus usuarios, que necesitan aparentemente estar sujetos a procesos de control y supervisión que eviten que salga a la superficie lo peor de su naturaleza. Y para evitarlo, aparecen mecanismos como el control y la supervisión, expresados a través de distintos sistemas que van desde el trabajo de equipos de moderación, hasta el desarrollo de barreras de entrada. El primer caso, Github, termina por resultarme mucho más atractivo debido al componente democrático que posee: cualquier persona puede crear un proyecto en la plataforma, sin ningún tipo de limitación, y los problemas únicamente surgen si esa persona entra en dinámicas de comportamiento abusivo, momento en el que se encontrará con el equipo de gestión de la comunidad. En el caso de Apple o Snapchat, el mecanismo me resulta menos interesante: que las cosas funcionen mejor cuando las barreras de entrada son más elevadas, y como tales barreras, dejen fuera a muchos que podrían posiblemente generar contribuciones valiosas, me parece una manera de tirar al niño con el agua del baño, aunque indudablemente esté siendo capaz de probar su buen funcionamiento.

Lo que no cabe duda es que mecanismos de este tipo, en distintas combinaciones, son cada día más necesarios para gestionar plataformas en la red, y el estudio de casos como estos puede probarse muy valioso a la hora de pensar sobre ese fenómeno. El sueño buenista de una red completamente abierta y sin limitaciones a la participación ha llegado a un punto en el que, al encontrarse con lo peor de la naturaleza humana, ha terminado por probar sus numerosas limitaciones. Triste, pero desgraciadamente real.

 

Twitter trollingTwitter vuelve a afirmar que se dotará de medidas para luchar contra los trolls y contra el acoso y los insultos en su red, un propósito que ya hizo hace algo más de un año, pero que ha tenido, en realidad, muy escasa trascendencia.

Al cumplir los diez años, Twitter continúa comprobando su problema de crecimiento: le resulta difícil encontrar propuestas de valor que lleven al usuario medio a compartir información de cualquier tipo, ante el riesgo de convertirse de repente en objeto de ataques de todo tipo por parte de una jauría de elementos que recuerdan mucho más a una turba enfebrecida que a ese mito de las llamadas smart mobs o multitudes inteligentes. Son ya numerosos los casos en los que una persona recibe de repente una visibilidad elevada por la razón que sea, pero termina tomando la decisión de abandonar Twitter ante los ataques de todo tipo que recibe por las razones más variadas. La red que pretende hacer de la facilidad e inmediatez de la publicación su propuesta de valor más clara tiene un serio problema derivado precisamente de esa facilidad e inmediatez: un número excesivamente elevado de descerebrados e idiotas utilizando cuentas habitualmente con seudónimo se dedican, mediante el insulto o la ironía descarnada, a competir por ver quién da un paso más allá de las líneas rojas que definen – o que deberían definir – la interacción social.

No es una cuestión de anonimato. Las cuentas en Twitter no son anónimas, sino seudónimas. La compañía puede colaborar – y lo ha hecho en numerosas ocasiones – a la hora de localizar infractores por diversos delitos, como puede también actuar directamente para limitar el daño producido. Como todo lo que ocurre en Twitter, los insultos quedan recogidos en un fichero log, y son mucho más trazables que en su equivalente en la calle o en el cara a cara. El anonimato no es el culpable: la responsabilidad recae en quienes dejan de actuar contra el infractor cuando podrían – y sin duda, deberían – hacerlo, convirtiéndose así en cómplices.

El problema del trolling en Twitter lo he sufrido de manera directa en varias ocasiones, y en una de ellas se convirtió incluso en una discusión con uno de los fundadores originales de la compañía, Biz Stone. Tras entrevistarle en Sevilla en noviembre de 2007 con motivo de su paso por el EBE, seguí su recomendación de reportar una cuenta que se dedicaba específicamente a practicar un tipo de parodia que, sin ser un insulto directo, sí podía calificarse entonces claramente como de acoso, para encontrarme con que las acciones de la compañía me dejaban claramente más expuesto al efecto de ese acoso que antes de haber hecho nada, como había sido mi intención inicial. Tras un breve intercambio de correos (que aún conservo) con una persona de su equipo en el que llegó incluso a pretender convencerme de que “aquello en realidad no era un insulto de acuerdo con sus criterios, o no era para tanto”, terminé precisamente comentando que ese tipo de comportamientos de acoso e insultos en su red terminaría por convertirse en un obstáculo importante a su expansión. Algo que parece que Twitter ha tardado casi una década en comprobar.

Las fronteras entre el humor o la ironía y conductas como el acoso o el insulto son algo que, como en otros entornos no electrónicos, debe definir aquel que es precisamente objeto de dichos comportamientos. Si en el patio de un colegio preguntamos a un matón o bully si está acosando a una víctima, este responderá sin ningún genero de dudas que no, que él no está haciendo eso, que en realidad todo es una broma y que el problema está en el acosado. El abuso y la institucionalización de ese tipo de comportamientos lleva, de hecho, a que el resto del entorno los aplauda, los jalee y los vea como normales, o incluso a que la propia víctima termine por verlos como culpa suya. Años de estudios sobre situaciones de bullying llevan a este tipo de conclusiones: cuando algo parece inadecuado a los ojos de un observador o de la propia víctima, es que lo es, y todo intento de matizarlo se convierte en complicidad.

Ese precisamente ha sido el problema de Twitter: el intento por parte de la compañía de establecer algún tipo de métrica objetiva para determinar si un comportamiento era o no insulto o acoso, o bien si caía dentro de lo aceptable, en lugar de simplemente preguntar al insultado o acosado si se sentía como tal, se ha convertido en muchísimos casos en una abierta complicidad con los insultadores o acosadores, en un intento de respetar una supuesta libertad de expresión que, en la inmensa mayoría de los casos, resultaba no solo completamente inaceptable, sino abiertamente injusta. No hace falta métricas objetivas para definir un comportamiento de acoso: se sabe inmediatamente cuando se ve. Pretender que una persona, por el hecho de tener una cuenta de Twitter, tenga que aguantar determinadas expresiones, llámese ironía cruel, humor de mal gusto o abiertamente injurias, que nunca tendrían lugar en un intercambio normal de pareceres frente a frente es querer defender lo indefendible. Es pretender que la libertad de expresión se convierta en libertinaje para insultar a quien se nos ponga delante. Es, con el pretexto de salvaguardar algo tan importante como la libertad de expresión, prostituirla pretendiendo que debe dar cobijo a imbéciles que solo pretenden hacer daño a otros, sin que se produzca ningún otro tipo de beneficio para nadie. Durante demasiado tiempo, Twitter ha sido la metáfora de la plaza pública en la que se instala el patíbulo, mientras todos aplauden al verdugo y miran con morbo como el ajusticiado da sus últimos pataleos… antes de cerrar su cuenta.

Hay muchas posibilidades a la hora de preservar un clima razonablemente sano en Twitter, y todas ellas se dirigen a lo mismo: que el insulto y la injuria no salgan gratis. Podemos pensar en convertir en invisibles a aquellos que manifiestan conductas inaceptables, de manera que solo se vean ellos mismos; en desarrollar un sistema de karma que se pierda cuando una conducta es denunciada por un número determinado de usuarios; en expulsiones sumarias de aquellas personas que manifiesten comportamientos asociales acompañado de medidas que dificulten el registro de una nueva cuenta; y por supuesto, en la educación de los usuarios con respecto a los límites de la legalidad y en la disponibilidad de un equipo preparado para enfrentarse a estos casos con determinación, rapidez y operatividad (en mi experiencia personal, las personas que se encargan actualmente de esos temas son muy pocas, muy lentas, tienden inequívocamente a ponerse del lado del que insulta, y ofrecen escaso consuelo o remedio a la situación). Sí, los trolls y el trolling es tan antiguo como internet (o mucho más), pero en Twitter parece haber encontrado su plataforma perfecta.

Si Twitter quiere hacerse atractivo para el usuario medio, tendrá que perder el componente de intimidación que hoy tiene. Tendrá que evitar que existan “justicieros” que van por el mundo dando mandobles a diestro y siniestro, repartiendo supuestos carnets de tuitero como guardianes de la ortodoxia, o creando cuentas con el propósito claro de insultar y descalificar a todo aquello que se ponga en su punto de mira. Tendrá que vigilar a esos campeones de la ironía que se amparan en una supuesta libertad de expresión para insultar de manera inaceptable, detener comportamientos gregarios que incitan al linchamiento, y ponerse del lado del débil cuando tienen lugar. Que muchas personas teman a Twitter porque es susceptible de provocar graves daños a su reputación o de ponerlos en el ojo de un huracán es algo que explica perfectamente la falta de crecimiento de la plataforma. No, no es sencillo en una red con las características de Twitter, pero definitivamente es algo que debe hacerse.

Una cosa es opinar de manera más o menos vehemente, y otra insultar, vejar o linchar públicamente, por mucho que a algunos les divierta. Y no es ya una cuestión de corrección política, de pretender convertir Twitter en Disneylandia o de simple supervivencia empresarial: es actuar como se debe, como haría cualquier persona en cuya plataforma tuviesen lugar esos comportamientos de manera sistemática. Si yo fuese responsable de una plataforma, no me gustaría verla utilizada para causar daño de manera irresponsable, ver cómo surgen bullies jaleados por la masa que se dedican a ganar seguidores y popularidad mediante comportamientos abiertamente crueles. Por el momento, Twitter, a pesar de haberlo dicho, ha sido incapaz de actuar con claridad en este sentido. Cada vez más, aparentemente, va dándose cuenta de que eso se ha convertido en uno de sus principales problemas, una de las causas de su escaso crecimiento. Veremos si es capaz de enderezar su rumbo.