Angry Twitter bird (IMAGE CREDIT: Unknown)

Seguramente lo más interesante que puedes leer hoy si te interesa el tema de las redes sociales desde un punto de vista de difusión de la innovación es este artículo largo en Fast Company titulado “‘Did We Create This Monster?’ How Twitter Turned Toxic, en el que se narra magistralmente un proceso que conozco perfectamente, porque viví directamente desde un nivel de contacto relativamente privilegiado con la compañía e incluso con episodios problemáticos que me afectaban personalmente y que la compañía nunca supo resolver adecuadamente: cómo una plataforma creada para que las personas compartiesen mensajes cortos se convirtió en el horrible desastre tóxico, incómodo y peligroso que vemos hoy, en el que intentar mantener la propuesta de valor de la red para el usuario se convierte poco menos que en una carrera de obstáculos.

En las discusiones iniciales con fundadores de Twitter me llamó la atención la importancia y el compromiso que tenían con la protección de la libertad de expresión. En una herramienta creada casi por casualidad en el seno de una compañía que ni siquiera se dedicaba a ello, resultaba curioso ese nivel de concienciación. En realidad, esa defensa a ultranza del concepto, que podía resultar enormemente atractiva para cualquiera que tomase contacto con la compañía, se ha revelado como una actitud completamente primaria irresponsable, similar a la de unos padres que intenten educar a un hijo sin ningún tipo de restricción, dándole siempre todo lo que el niño pida.

El siguiente párrafo es parte de una secuencia de mensajes que crucé con uno de los fundadores de Twitter nada menos que en el año 2008, cuando me encontré siendo víctima de una situación de acoso y bullying a través de su red:

It is sad to see you consider the account a parody. By doing so, I truly believe you are stretching the concept of parody to its very limits (…) It is exactly the same thing as being harassed by a bully in school: these people writing complaints are the boys standing around the bully watching him harassing the other guy, laughing their ass off and doing nothing. It is cruel and it is wrong. It is not a parody, its plain cruelty, and is something that everyone, including my daughter and my family, can see. Quite frankly, if I had invented something like Twitter and saw it used to cause so much harm, pain and sorrow, I wouldn’t feel at ease with myself. When I originally asked you for advice, I was expecting Twittter to react by deleting the account. Doing what you did obviously made things much worse: you turned the bully into some sort of hero. I respectfully ask you again to reconsider the deletion of the page and define clearly the concept of parody: any lawyer would tell you the parody ends when it meets permanent, long lasting harassment, and this is exactly what this guy is doing to me. 

Aquel episodio de 2008, con una Twitter recién elevada a la popularidad, fue para mí profundamente doloroso: puedes caer mal a alguien – es algo que le puede pasar a cualquiera y cuya probabilidad se incrementa según se eleva el nivel de visibilidad de una persona – pero que un grupo de individuos a los que les caes mal se dediquen a insultarte y a lanzarte dardos envenenados en público, mientras otras personas, incluyendo a algunos que considerabas amigos tuyos, les ríen las gracias y celebran lo ingeniosos que son como si no hubiera un ser humano al otro lado me pareció profundamente asqueroso, algo que no podía justificarse de ninguna manera aplicando la libertad de expresión, porque esa libertad, como todas, tenía necesariamente que tener límites. Con aquel episodio aprendí mucho, y ha condicionado muchas de las cosas que hago o, sobre todo, que dejo de hacer en la red.

Como vemos, el problema no ha cambiado. Millones de personas han sufrido en Twitter problemas similares al mío, muchísimos de ellos sin duda mucho más graves y dolorosos. Hoy esa cuenta que me acosaba ha eliminado sus contenidos porque, por alguna razón, sus creadores juzgaron que era mejor hacerlo así, pero no porque Twitter hiciera nada para evitar el acoso: si hoy quisieran, por las mismas razones que entonces, volver a crearla, seguramente Twitter ofrecería la misma respuesta. Sí, de acuerdo: la mayoría de las personas que conozco y yo mismo valoramos enormemente la libertad de expresión… pero eso no quiere decir que pueda ejercitarse sin freno ni límite alguno, y si lo intentas gestionar así, el resultado lleva, desgraciada e inequívocamente, a lo que Twitter es hoy. En muchos sentidos, esta entrada puede interpretarse casi como una continuación de la de ayer sobre las redes sociales y la naturaleza humana: del mismo modo que no podemos dar a un niño absolutamente todo lo que pide, porque carece de freno y de control para saber si eso es bueno o no, y si lo hacemos terminaremos seguramente con un niño con innumerables problemas, una plataforma social tiene exactamente el mismo desarrollo: o restringimos determinados comportamientos, o nos encontraremos con una red social insana, no escalable y llena de problemas de difícil solución.

La comparación me parece, cuanto más la pienso, completamente adecuada: podemos tener ideales maravillosos que nos lleven a pensar que es bueno no restringir lo que nuestro hijo quiere en cada momento, darle siempre lo que pida. Pero desgraciadamente, la educación, como proceso, implica necesariamente restricción. Conlleva hacer entender al niño que aunque, aunque en su ignorante egoísmo, desee mucho una cosa, puede haber múltiples razones que hagan que no deba obtenerla. La educación basada en la concesión constante de todo lo que el niño pide es un maldito desastre que genera seres humanos infelices cuando se topan con la realidad de la vida en sociedad y sus muchas – y necesarias – restricciones.

En las plataformas sociales pasa exactamente lo mismo: cuando la fase de popularización alcanza un momento determinado, o se restringen de manera inequívoca y decidida determinadas actitudes, o acabarás teniendo un estercolero social que reflejará inequívocamente lo peor del ser humano. Ese proceso, del mismo modo que en los niños lo conocemos como educación, en las plataformas sociales se llama management. Y lo que es peor: habrás llegado a ese resultado pretendiendo llevar al límite un principio en el que creías profundamente, como la libertad de expresión, del mismo modo que unos padres terminarán teniendo un monstruo de niño maleducado por haber pretendido algo tan aparentemente positivo y razonablemente deseable como el darle todo lo que quería. El problema de Twitter se llama, sencillamente, mismanagement: en pos de un ideal aparentemente elevado y deseable, han dado lugar a una criatura que hace a muchos de sus usuarios profundamente infelices y les obliga a enfrentarse con lo peor de la naturaleza humana.

Pensemos en los directivos que han pasado por Twitter como en esos padres de niños insoportables que molestan a todos los usuarios de un restaurante chillando de manera inhumana o actuando como completos salvajes antisociales, mientras sus padres nos piden comprensión “porque son niños”: sí, ya… ellos son niños, y vosotros sois unos impresentables que no sabéis educarlos, y a quienes seguramente deberían restringirles legalmente la capacidad de tenerlos por el bien de toda la sociedad. Exactamente igual, una serie de personas exitosas en el ámbito de las empresas tecnológicas elevaron una serie de ideales por muchos compartidos, como la libertad de expresión, y se dedicaron a hacer crecer a su plataforma sin restricción alguna, “porque creemos en eso”. Ese, ni más ni menos, es el relato de lo sucedido con Twitter. Ahora, cuando el niño ya no es tan niño, lo de proporcionarle la educación que no se le proporcionó en su momento se está probando mucho más complejo, una tarea sin duda dolorosa, que implica renuncias y en la que no existen garantía alguna de llegar a buen puerto. Simplemente, mismanagement, con todo lo que ello conlleva: buenos deseos llevados al límite y no teniendo en cuenta aspectos como la naturaleza humana o la escalabilidad de determinados comportamientos. La sociedad tiene reglas no porque seamos unos dictadores, sino porque son necesarias para la convivencia. Los niños necesitan aprender esas reglas porque son necesarios para llevar una vida en sociedad. Y a las plataformas sociales y sus usuarios… les pasa exactamente lo mismo. A las pruebas me remito.

 

IMAGE: Karen Roach - 123RF

Según Twitter, apoyándose en datos generados internamente, sus esfuerzos para combatir el acoso y el abuso en su red están finalmente dando sus frutos.

Las declaraciones de la compañía contrastan con las de un buen número de usuarios que afirman, con capturas y ejemplos de tweets que incurren en este tipo de conductas, que la compañía salda de forma sistemática un número significativamente elevado de reclamaciones con afirmaciones de que “no viola las reglas de la compañía”.

El asunto en discusión es tan sencillo como la definición de acoso o abuso en un contexto social. Según Twitter, algo es acoso no cuando el afectado lo denuncia, sino cuando alguien, dentro de Twitter, lo examina, lo juzga, y emite su veredicto. Según Twitter, ellos son los jueces inapelables de lo que constituye acoso o abuso en su red, y la opinión de los denunciantes de tales conductas no cuenta en absoluto. Visto así, ese tipo de contestaciones, que hace algunos años tuve la ocasión de recibir yo mismo, son un recurso sencillo y barato para la compañía, que puede decidir qué comportamientos son constitutivos de acoso y abuso y cuáles no, y reportar las cifras que le vengan en gana sobre la reducción de esos comportamientos en su red.

El problema de erigirse en juez inapelable sobre lo que es acoso o abuso es que, en realidad, eso no es lícito en absoluto. En un contexto social, la única persona que puede juzgar si un comportamiento constituye acoso o abuso es el afectado. Si un afectado afirma estar siendo objeto de acoso o abuso, ese acoso o ese abuso automáticamente deben pasar a existir. El acoso o el abuso son problemas esencialmente subjetivos: alguien puede acosar a otra persona simplemente insistiendo en un tema determinado, aunque lo haga con unos modales perfectos. Los límites de ese acoso o abuso, en ese sentido, podrían llegar a marcarse en función de las características de la víctima: los personajes públicos, por su visibilidad, podrían estar en cierto sentido obligados a aceptar determinados niveles de acoso o abuso, o en particular aquellos que fuesen relevantes con respecto a las razones por las que poseen esa visibilidad. Así, preguntar insistentemente a un político por un caso de corrupción difícilmente podría ser conceptualizado como acoso, pero hacer lo mismo con un ciudadano anónimo con respecto a una factura supuestamente impagada sí podría serlo. La clave, desde mi punto de vista, está en la dimensión social.

Otro elemento evidente estaría, muy posiblemente, en la fuerza empleada: no es lo mismo que alguien insulte a otra persona desde una cuenta con pocos seguidores, posiblemente anónima y carente de credibilidad alguna, que el que ese insulto sea dirigido desde una cuenta con una trascendencia elevada, con un gran número de seguidores o con una visibilidad relevante. La dimensión social añade a cuestiones como el acoso o el abuso una serie de variables que es preciso tener en cuenta a la hora de emitir una opinión sobre su naturaleza.

Pero el principal problema, desde mi punto de vista, estriba en la naturaleza de la cuestión: un comportamiento no es constitutivo de acoso o abuso “porque lo diga Twitter”, sino porque lo diga el afectado. ¿Podría esta política de tolerancia cero ser utilizada por algunas personas para suprimir determinadas actitudes que, en términos estrictamente judiciales, podrían ser considerados lícitos? Posiblemente, pero es que precisamente en eso está la cuestión: la conversación en un contexto social no puede judicializarse, no puede convertirse en un estrado sin juez ni leyes establecidas, y mucho menos puede ser Twitter, parte interesada, quien pretenda erigirse en juez. En un lado está el contexto social, con sus propias reglas marcadas, fundamentalmente, por las normas de la buena educación y otros consensos sociales generalmente aceptados , y en otro lado completamente separado están los tribunales que juzgan delitos como la injuria, el acoso o la difamación. Son niveles diferentes, y Twitter nunca debería, desde mi punto de vista, entrar en el juego de considerarse juez. Lo que Twitter tendría que hacer, de nuevo desde mi punto de vista estrictamente personal, es tomar todas las reclamaciones de acoso o abuso y procesarlas debidamente con arreglo a una serie de protocolos, que pueden incluir desde el borrado del tweet y la advertencia al infractor, hasta la eliminación de la cuenta y la adopción de medidas de exclusión. La única manera de mantener una red social libre de elementos nocivos como el acoso o el abuso es con una política de tolerancia cero.

Mientras esa política de tolerancia cero, mientras el objeto de acoso o abuso no sea quien determine si un comportamiento lo es o no lo es, los datos que Twitter ofrezca sobre los resultados de sus acciones en ese sentido carecerán de toda credibilidad. Pero una vez más: hablamos de un asunto sensible, en el que mi sensibilidad además se acrecienta por haberlo sufrido personalmente, y en el que, obviamente, puede haber opiniones en otros sentidos.

 

IMAGE: Redrockerz - 123RFUno de los principales problemas que redes como Twitter han experimentado a lo largo de los años es, como hemos comentado ya en bastantes ocasiones, su gestión del problema del acoso y el insulto.

Desde su fundación, Twitter intentó plantearse como una herramienta que hacía una defensa militante y maximalista de la libertad de expresión, lo que terminó por generar un entorno en el que era precisamente esa supuesta libertad de expresión la que se veía coartada por las reacciones de usuarios con comportamientos nocivos.

A lo largo del tiempo, ese ambiente nocivo le ha costado a Twitter grandes disgustos, desde un crecimiento menor de lo esperado, a un predominio creciente de comportamientos pasivos (lurking) frente a activos, e incluso a comprometer su futuro provocando que otras compañías dejasen de plantearse posibles ofertas de adquisición derivadas de las dinámicas venenosas existentes en la plataforma.

Tras múltiples intentos de corrección de estas dinámicas, muchos de los cuales son en realidad auténticas “tácticas de avestruz”, formas de ocultar el acoso a los ojos del acosado como si eso lo hiciese supuestamente desaparecer, ahora Twitter se plantea algo nuevo: una colaboración con IBM para que sea su sistema de machine learning, Watson, quien detecte, a través del estudio de patrones conversacionales, posibles situaciones de acoso y comportamientos abusivos, incluso antes de que sean denunciados.

¿Es posible que una inteligencia artificial detecte actitudes como el acoso o el abuso verbal? La cuestión no parece sencilla, porque hablamos de situaciones que van desde el insulto directo, que podrían ser detectadas simplemente con el uso de un diccionario, hasta otras mucho más complejas en las que se hace uso de la ironía, de los dobles sentidos, o de elementos no presentes en la conversación a los que se hace referencia de manera velada como insinuaciones, o a veces ni eso. Acosar a alguien puede incluir dinámicas muy complicadas, a veces incluso retorcidas, y utilizar patrones que van desde lo más sencillo a lo más alambicado.

¿A favor de Twitter? Cuenta posiblemente con uno de los mejores archivos online de comportamientos abusivos denunciados como tales. A lo largo de sus ya once años de historia, la compañía se ha visto envuelta en todo tipo de escándalos de elevada visibilidad y en una amplísima variedad de situaciones infinitamente menos conocidas que han afectado a usuarios de todo perfil y condición, con desenlaces conocidos. Para la compañía, resulta perfectamente posible estudiar en su inmenso archivo toda situación en la que determinadas actitudes hayan sido denunciadas como acoso, insulto, bullying, sexismo, incitación al odio, etc. e incluso etiquetar perfiles en función de su inclinación a exhibir ese tipo de comportamientos. Ese tipo de datos son precisamente lo que un algoritmo de machine learning necesita para ser entrenado correctamente, considerando que la semantización y el análisis del lenguaje humano ya son llevados a cabo algorítmicamente de manera más que satisfactoria. Obviamente, esto aún no incluye todo: algunas situaciones, como el uso de imágenes, pueden resultar algo más difíciles de procesar, pero en modo alguno representan algo que, a día de hoy, esté fuera de las capacidades de una inteligencia artificial, o en ultimo término, algo que puede recibir ayuda puntual de evaluadores humanos a la hora de determinar si efectivamente se trataba de una situación de ese tipo.

¿Puede Watson convertirse en el juez que determina si el comportamiento de un usuario debe ser considerado nocivo? Como afectado en algunos momentos por comportamientos de ese tipo que vio, además, cómo Twitter se lavaba las manos e incluso contribuía a empeorar aquella situación considerada por muchos como algo “simpático” y digno incluso de ser premiado, creo que sí, que el machine learning puede aportar un sistema que permita, cuando menos, etiquetar ese tipo de comportamientos, tipificarlos y permitir una gestión adecuada de los mismos, como también es muy posible que pueda colaborar en la detección de otro patrón habitual: la gestión de múltiples identidades y la apertura inmediata de otra cuenta para proseguir con el comportamiento nocivo cuando la primera cuenta es eliminada.

¿Existe algún tipo de conflicto entre un sistema así y la libertad de expresión? Todo depende de cómo queramos definir la libertad de expresión. Si consideramos que una red social debería servir para que todos podamos decir todo lo que se nos pase por la cabeza sin ningún tipo de freno o cortapisa, sí. Pero el ser humano vive en sociedad, la vida en sociedad se regula mediante determinadas reglas que van desde leyes a protocolos más o menos explícitos, y creo que a estas alturas, todos deberíamos asumir que el adjetivo “social” aplicado al sustantivo “red” debería implicar algo más que lo que actualmente implica. Al menos, en el caso de Twitter…

 

IMAGE: Phillip John Mearman - 123RFMe ha resultado muy interesante el estudio publicado utilizando datos de la gestión de comunidades de Wikipedia, Ex Machina: personal attacks seen at scale, en el que se estudió un conjunto muy elevado de comentarios etiquetados manual o automáticamente con el fin de determinar patrones habituales en el fenómeno del abuso. Wikipedia no solo es una de las mayores comunidades online del mundo, sino que además, el buen funcionamiento del sitio depende en gran medida de una comunidad sana y equilibrada. Del funcionamiento de la comunidad de Wikipedia y, sobre todo, de sus dinámicas de abuso, pueden surgir conclusiones sumamente interesantes para gestores de comunidad de todo tipo.

La primera conclusión parece clara, y es la que se destaca en titulares: un pequeño número de usuarios altamente tóxicos son responsables de un porcentaje elevado del abuso en la página. Algo que coincide claramente con mi experiencia en esta página, en la que en varias ocasiones he podido presenciar en primera fila cómo un comentarista pasaba de algún comentario tóxico o insultante ocasional, a una dinámica en la que pasaba a intervenir en absolutamente todas las conversaciones, y siempre con una dinámica insultante, fuese el que fuese el tema tratado. Lógicamente, cuando todo lo que dices sobre cualquier tema es recibido con hostilidad e insultos, la barrera de la tolerancia y de la supuesta libertad de expresión salta por los aires, la persona está simplemente convirtiéndose en un obstáculo al buen funcionamiento de la comunidad, una especie de “ruido de fondo” molesto, y debe ser expulsada.

En el caso de Wikipedia, 34 usuarios calificados como “altamente tóxicos” eran responsables de un 9% de los ataques personales en la página, lo que implica que puede obtenerse un resultado muy bueno simplemente aislando a esos usuarios y expulsándolos de la comunidad. En cambio, el 80% restante de ataques personales eran llevados a cabo por un grupo de unos 9,000 usuarios que habían realizado menos de cinco comentarios insultantes cada uno, algo que puede perfectamente responder al hecho de que “todos nos enfadamos en algún momento” y que no necesariamente debería resultar en una descalificación para la participación, sino ser considerado una dinámica de participación, dentro de un orden, razonablemente normal.

Desde mi experiencia, la clave está en el balance personal, en algo similar a lo que en las primitivas BBS conocíamos como el ratio de un usuario: aunque generalmente se aplicaba a la cantidad de bits aportados frente a bits descargados, parece claro que podríamos hablar de ratio como del porcentaje de comentarios aportados por un usuario que resultan insultantes, y utilizarlo como elemento de cualificación – o eventualmente, descalificación – a partir de un umbral determinado. Alguien que aporta habitualmente comentarios de calidad, pero que en ocasiones se irrita con determinadas actitudes o temas e incurre en el insulto, es completamente diferente de un usuario que únicamente participa insultando, que entra en una dinámica personal de insulto sistemático, de “misión en la vida” o de “terapia personal”, como he conocido unos cuantos a lo largo de ya catorce años de gestión de esta página. En esos casos, es claramente mejor expulsar al usuario, y poner todos los medios posibles para evitar que vuelva a entrar. Esos comportamientos rayanos en lo obsesivo, además, pueden ser identificados relativamente rápido, y deben ser detenidos rápidamente porque suelen mostrar elementos de escalada con escasas vueltas atrás.

Otro problema evidente en la gestión de comunidades está en el anonimato. En el caso de Wikipedia, el 43% de todos los comentarios proviene de usuarios anónimos, aunque muchos de ellos habían comentado tan solo una vez y el número total de comentarios era veinte veces menor que los aportados por usuarios registrados. Los usuarios anónimos terminaban siendo seis veces más activos a la hora de insultar que los registrados, pero dada la diferencia de volumen, contribuían en conjunto a menos de la mitad de los ataques, lo que conlleva que la mayoría de los ataques provenían de usuarios con un perfil registrado en la página. Acabar con el anonimato, por tanto, puede poner fin a cierta cantidad de comentarios insultantes, pero no es la razón fundamental de que estos existan, y siempre cabe la posibilidad de que alguien que puntualmente quiere insultar, se abra un perfil en el sitio (en el caso de Wikipedia es importante destacar que se considera anónimo a todo aquel que carece de perfil, pero que se puede abrir un perfil perfectamente sin aportar nada más que un seudónimo). Existe una correlación clarísima entre participación habitual y creación de perfil, lo que desde mi punto de vista apoya el uso de mecanismos basados en la lista blanca: el comentarista habitual merece mejor tratamiento que el simplemente aparece un día y deja caer un comentario. Mientras la gestión de los primeros puede hacerse prácticamente por excepción, la de los segundos puede plantearse en modo manual o dejarla en manos de sistemas parcialmente automatizados, en función del volumen.

En el estudio se diseña una metodología para evitar ataques personales y escaladas dialécticas mediante el uso de crowdsourcing (alertas de los propios usuarios mediante mecanismos de evaluación) por un lado, y de sistemas de machine learning por el otro entrenados con comentarios para ser capaces de reconocer insultos o spam, sistemas que pueden dar paso a la acción puntual de moderadores en los casos en que se estime necesario. Sin duda, un área prometedora de estudio: si bien en mi caso hace ya mucho tiempo que consideré este tema prácticamente resuelto mediante una combinación de listas negras y blancas, y manteniendo el derecho al anonimato porque me parecía que aportaba más de lo que podía perjudicar, el buen funcionamiento de la comunidad de esta página se debe fundamentalmente a su tamaño relativamente pequeño, y al hecho de que reviso todos los comentarios personalmente en el momento en que se producen. A partir del momento en que esa tarea excede la dedicación de una persona, como de hecho ocurre en la mayor parte de los medios de comunicación, el desarrollo de metodologías basadas en crowdsourcing o machine learning puede ofrecer muy buenas posibilidades a los gestores de comunidad.

La posibilidad de generar comunidades en torno a un tema es uno de los mejores aportes de internet. Conseguir que esas comunidades funcionen adecuadamente, en lugar de convertirse en nidos de trolls que campan a sus anchas, insultan, acosan y dificultan la comunicación es algo fundamental para el buen funcionamiento de una página, como de hecho demuestran los problemas experimentados por redes como Twitter, incapaces de controlar este tipo de dinámicas, a lo largo de su historia. Y en ese sentido, este estudio sobre la comunidad de Wikipedia es de lo mejor que he visto en ese sentido: conclusiones, en realidad, muy de sentido común, pero que siempre es bueno ver reflejadas en un análisis cuantitativamente serio y significativo. Veremos si sirve de inspiración a algunos…

 

The Exorcist (1973)Dos interesantes artículos hoy hacen referencia a experiencias que han resultado ser exitosas a la hora de eliminar de determinados servicios problemas como las noticias falsas o las dinámicas de acoso e insulto.

Por un lado, Fusion publica What GitHub did to kill its trolls, una pieza larga y detallada sobre cómo la mayor plataforma de publicación y colaboración para software de código abierto del mundo fue capaz de conjurar un problema de dinámicas nocivas de interacción que amenazaba con convertir en muy incómoda la interacción en la página, que en el año 2014 llevaba ya algún tiempo viendo abandonos de usuarios que manifestaban quejas de trolling, bullying, machismo, abuso, acoso e insultos.

¿La receta? Equipos de gestión creados con personas de orígenes muy diversos, con muy diferentes sensibilidades con respecto a los distintos temas, y muy comprometidos con su labor, con la idea no tanto de crear nuevas normas de conducta, sino de detectar todos los resquicios del funcionamiento del sitio que permitían o incluso fomentaban la aparición de ese tipo de dinámicas. Una respuesta muy diferente a la tomada por redes como Twitter, en las que esas dinámicas no son tristemente la excepción sino la norma, y que como mucho, llegan a ofrecer a los usuarios herramientas para que puedan llevar a cabo la absurda “estrategia del avestruz”, para poder ocultarse a sí mismos las dinámicas abusivas, pretendiendo aquello de “si no puedo ver el problema, ya no existe”.

En el segundo artículo, titulado Why Snapchat and Apple don’t have a fake news problem, Buzzfeed especula sobre las razones por las que determinadas plataformas de consumo de noticias, como Apple News o Snapchat Discover, no tienen los problemas derivados de la publicación de noticias falsas que sí sufren otras como Facebook. La respuesta, en este caso, parece clara: un nivel de control y supervisión mucho más rígido y manual, una aprobación particularizada de cada una de las fuentes, y mecanismos de interacción que no tienden tanto a premiar lo social entendido como acumulación de Likes, de follows o de algoritmos que puedan ser manipulados, sino mediante reglas mucho más sencillas, como la exposición cronológica.

No hablamos de casos aislados o poco importantes cuantitativamente: Snapchat, con sus 150 millones de usuarios diarios, supera ya en 10 millones de usuarios activos a redes como Twitter, y obtiene importantes ingresos gracias a Discover, la plataforma de compartición de noticias en la que muchísimos usuarios fundamentalmente adolescentes, que resultan muy difíciles de alcanzar para la mayoría de los medios, leen noticias de una serie de publicaciones que pasan por un riguroso proceso de admisión y control. No hablamos de un sistema en el que grupos de adolescentes macedonios puedan dedicarse a ganar un dinero generando noticias falsas que se convierten en virales, ni donde publicaciones de dudosa reputación puedan inyectar noticias completamente falsas e inventadas, sino de un sitio con reglas serias donde el derecho de admisión está claramente señalizado y tiene un coste, en absoluto trivial. En el caso de Apple News, hablamos de 70 millones de usuarios activos y de contenido disponible de más de 4,000 publicaciones, pero en la que el acceso está regulado por el miso tipo de reglas rígidas y conocidas que gobiernan la tienda de aplicaciones de la compañía: incumple las normas, y te verás rápidamente excluido.

¿De qué estamos hablando? Claramente, la responsabilidad de gestionar una plataforma debe ir bastante más allá de la posibilidad de crearla técnicamente. Si no aplicamos principios de gestión claros e inequívocos, el destino es el que es: caer víctimas de algo tan imparable como la mismísima naturaleza humana. Los problemas de las plataformas, en realidad, no lo son tanto de las plataformas como de sus usuarios, que necesitan aparentemente estar sujetos a procesos de control y supervisión que eviten que salga a la superficie lo peor de su naturaleza. Y para evitarlo, aparecen mecanismos como el control y la supervisión, expresados a través de distintos sistemas que van desde el trabajo de equipos de moderación, hasta el desarrollo de barreras de entrada. El primer caso, Github, termina por resultarme mucho más atractivo debido al componente democrático que posee: cualquier persona puede crear un proyecto en la plataforma, sin ningún tipo de limitación, y los problemas únicamente surgen si esa persona entra en dinámicas de comportamiento abusivo, momento en el que se encontrará con el equipo de gestión de la comunidad. En el caso de Apple o Snapchat, el mecanismo me resulta menos interesante: que las cosas funcionen mejor cuando las barreras de entrada son más elevadas, y como tales barreras, dejen fuera a muchos que podrían posiblemente generar contribuciones valiosas, me parece una manera de tirar al niño con el agua del baño, aunque indudablemente esté siendo capaz de probar su buen funcionamiento.

Lo que no cabe duda es que mecanismos de este tipo, en distintas combinaciones, son cada día más necesarios para gestionar plataformas en la red, y el estudio de casos como estos puede probarse muy valioso a la hora de pensar sobre ese fenómeno. El sueño buenista de una red completamente abierta y sin limitaciones a la participación ha llegado a un punto en el que, al encontrarse con lo peor de la naturaleza humana, ha terminado por probar sus numerosas limitaciones. Triste, pero desgraciadamente real.