Angry Twitter bird (IMAGE CREDIT: Unknown)

Seguramente lo más interesante que puedes leer hoy si te interesa el tema de las redes sociales desde un punto de vista de difusión de la innovación es este artículo largo en Fast Company titulado “‘Did We Create This Monster?’ How Twitter Turned Toxic, en el que se narra magistralmente un proceso que conozco perfectamente, porque viví directamente desde un nivel de contacto relativamente privilegiado con la compañía e incluso con episodios problemáticos que me afectaban personalmente y que la compañía nunca supo resolver adecuadamente: cómo una plataforma creada para que las personas compartiesen mensajes cortos se convirtió en el horrible desastre tóxico, incómodo y peligroso que vemos hoy, en el que intentar mantener la propuesta de valor de la red para el usuario se convierte poco menos que en una carrera de obstáculos.

En las discusiones iniciales con fundadores de Twitter me llamó la atención la importancia y el compromiso que tenían con la protección de la libertad de expresión. En una herramienta creada casi por casualidad en el seno de una compañía que ni siquiera se dedicaba a ello, resultaba curioso ese nivel de concienciación. En realidad, esa defensa a ultranza del concepto, que podía resultar enormemente atractiva para cualquiera que tomase contacto con la compañía, se ha revelado como una actitud completamente primaria irresponsable, similar a la de unos padres que intenten educar a un hijo sin ningún tipo de restricción, dándole siempre todo lo que el niño pida.

El siguiente párrafo es parte de una secuencia de mensajes que crucé con uno de los fundadores de Twitter nada menos que en el año 2008, cuando me encontré siendo víctima de una situación de acoso y bullying a través de su red:

It is sad to see you consider the account a parody. By doing so, I truly believe you are stretching the concept of parody to its very limits (…) It is exactly the same thing as being harassed by a bully in school: these people writing complaints are the boys standing around the bully watching him harassing the other guy, laughing their ass off and doing nothing. It is cruel and it is wrong. It is not a parody, its plain cruelty, and is something that everyone, including my daughter and my family, can see. Quite frankly, if I had invented something like Twitter and saw it used to cause so much harm, pain and sorrow, I wouldn’t feel at ease with myself. When I originally asked you for advice, I was expecting Twittter to react by deleting the account. Doing what you did obviously made things much worse: you turned the bully into some sort of hero. I respectfully ask you again to reconsider the deletion of the page and define clearly the concept of parody: any lawyer would tell you the parody ends when it meets permanent, long lasting harassment, and this is exactly what this guy is doing to me. 

Aquel episodio de 2008, con una Twitter recién elevada a la popularidad, fue para mí profundamente doloroso: puedes caer mal a alguien – es algo que le puede pasar a cualquiera y cuya probabilidad se incrementa según se eleva el nivel de visibilidad de una persona – pero que un grupo de individuos a los que les caes mal se dediquen a insultarte y a lanzarte dardos envenenados en público, mientras otras personas, incluyendo a algunos que considerabas amigos tuyos, les ríen las gracias y celebran lo ingeniosos que son como si no hubiera un ser humano al otro lado me pareció profundamente asqueroso, algo que no podía justificarse de ninguna manera aplicando la libertad de expresión, porque esa libertad, como todas, tenía necesariamente que tener límites. Con aquel episodio aprendí mucho, y ha condicionado muchas de las cosas que hago o, sobre todo, que dejo de hacer en la red.

Como vemos, el problema no ha cambiado. Millones de personas han sufrido en Twitter problemas similares al mío, muchísimos de ellos sin duda mucho más graves y dolorosos. Hoy esa cuenta que me acosaba ha eliminado sus contenidos porque, por alguna razón, sus creadores juzgaron que era mejor hacerlo así, pero no porque Twitter hiciera nada para evitar el acoso: si hoy quisieran, por las mismas razones que entonces, volver a crearla, seguramente Twitter ofrecería la misma respuesta. Sí, de acuerdo: la mayoría de las personas que conozco y yo mismo valoramos enormemente la libertad de expresión… pero eso no quiere decir que pueda ejercitarse sin freno ni límite alguno, y si lo intentas gestionar así, el resultado lleva, desgraciada e inequívocamente, a lo que Twitter es hoy. En muchos sentidos, esta entrada puede interpretarse casi como una continuación de la de ayer sobre las redes sociales y la naturaleza humana: del mismo modo que no podemos dar a un niño absolutamente todo lo que pide, porque carece de freno y de control para saber si eso es bueno o no, y si lo hacemos terminaremos seguramente con un niño con innumerables problemas, una plataforma social tiene exactamente el mismo desarrollo: o restringimos determinados comportamientos, o nos encontraremos con una red social insana, no escalable y llena de problemas de difícil solución.

La comparación me parece, cuanto más la pienso, completamente adecuada: podemos tener ideales maravillosos que nos lleven a pensar que es bueno no restringir lo que nuestro hijo quiere en cada momento, darle siempre lo que pida. Pero desgraciadamente, la educación, como proceso, implica necesariamente restricción. Conlleva hacer entender al niño que aunque, aunque en su ignorante egoísmo, desee mucho una cosa, puede haber múltiples razones que hagan que no deba obtenerla. La educación basada en la concesión constante de todo lo que el niño pide es un maldito desastre que genera seres humanos infelices cuando se topan con la realidad de la vida en sociedad y sus muchas – y necesarias – restricciones.

En las plataformas sociales pasa exactamente lo mismo: cuando la fase de popularización alcanza un momento determinado, o se restringen de manera inequívoca y decidida determinadas actitudes, o acabarás teniendo un estercolero social que reflejará inequívocamente lo peor del ser humano. Ese proceso, del mismo modo que en los niños lo conocemos como educación, en las plataformas sociales se llama management. Y lo que es peor: habrás llegado a ese resultado pretendiendo llevar al límite un principio en el que creías profundamente, como la libertad de expresión, del mismo modo que unos padres terminarán teniendo un monstruo de niño maleducado por haber pretendido algo tan aparentemente positivo y razonablemente deseable como el darle todo lo que quería. El problema de Twitter se llama, sencillamente, mismanagement: en pos de un ideal aparentemente elevado y deseable, han dado lugar a una criatura que hace a muchos de sus usuarios profundamente infelices y les obliga a enfrentarse con lo peor de la naturaleza humana.

Pensemos en los directivos que han pasado por Twitter como en esos padres de niños insoportables que molestan a todos los usuarios de un restaurante chillando de manera inhumana o actuando como completos salvajes antisociales, mientras sus padres nos piden comprensión “porque son niños”: sí, ya… ellos son niños, y vosotros sois unos impresentables que no sabéis educarlos, y a quienes seguramente deberían restringirles legalmente la capacidad de tenerlos por el bien de toda la sociedad. Exactamente igual, una serie de personas exitosas en el ámbito de las empresas tecnológicas elevaron una serie de ideales por muchos compartidos, como la libertad de expresión, y se dedicaron a hacer crecer a su plataforma sin restricción alguna, “porque creemos en eso”. Ese, ni más ni menos, es el relato de lo sucedido con Twitter. Ahora, cuando el niño ya no es tan niño, lo de proporcionarle la educación que no se le proporcionó en su momento se está probando mucho más complejo, una tarea sin duda dolorosa, que implica renuncias y en la que no existen garantía alguna de llegar a buen puerto. Simplemente, mismanagement, con todo lo que ello conlleva: buenos deseos llevados al límite y no teniendo en cuenta aspectos como la naturaleza humana o la escalabilidad de determinados comportamientos. La sociedad tiene reglas no porque seamos unos dictadores, sino porque son necesarias para la convivencia. Los niños necesitan aprender esas reglas porque son necesarios para llevar una vida en sociedad. Y a las plataformas sociales y sus usuarios… les pasa exactamente lo mismo. A las pruebas me remito.

 

IMAGE: Ioulia Bolchakova - 123RFEn un nuevo capítulo de su serie Hard Questions titulado Is spending time on social media bad for us?, Facebook admite que bajo determinadas circunstancias, el uso de las redes sociales puede provocar efectos negativos sobre las personas.

Desde mi punto de vista, es la mayor tontería que he visto escrita en mucho tiempo: una de esas afirmaciones que son, en realidad, verdades universales, y que requieren una lectura e interpretación completa antes de que, como tantos hacen hoy en día, nos lancemos a compartir sin medida tras simplemente leer el titular.

¿Puede el uso de redes sociales ser malo? ¡Por supuesto! TODO, absolutamente TODO, puede ser malo para la salud. Los americanos lo dicen claramente en una frase hecha, “too much of a good thing can kill you”. Hasta las cosas más buenas son potencialmente malas y te pueden matar, desde ejemplos tan obvios como el alcohol, que sienta fenomenal en determinadas ocasiones pero puede llegar a mataros a ti o a tu hígado cuando te excedes en su consumo, hasta cualquier otra cuestión, sea el ejercicio, el café, el azúcar, el queso o el dulce de leche. Da igual de qué hablemos: un consumo excesivo o mal entendido puede matarte. Es tan obvio y tan estúpido que resulta profundamente sorprendente que se comente. ¡Dios mío, que hasta la propia Facebook lo reconoce!! ¿Claro, no hace más que reconocer una obviedad tan grande como que el mal uso de cualquier cosa puede ser perjudicial, no veo nada sorprendente en ello! A las tabaqueras, de hecho, les costó mucho más hacerlo…

¿Pueden ser negativas las redes sociales? Pues eso, como todo. Un uso adecuado de las redes sociales te permite mantenerte más en contacto con tus amigos y conocidos, puede generarte incluso más ocasiones para la socialización y el contacto casual periódico, mantenerte más informado de lo que hacen o a qué se dedican, de sus circunstancias personales, de sus viajes o de su vida en general. ¿Es superficial? Por supuesto… ¿es que de verdad esperábamos una profundidad rayana en lo filosófico de una red social? ¿Lo esperamos de una conversación cuando te encuentras en una acera, o de un café en un bar? “Vaya, me felicita el cumpleaños por Facebook, qué poco personal!” Ya, por supuesto, porque cuando te ve y te da dos besos es un momentazo místico de profunda contemplación… ¡venga ya! Las relaciones sociales, en gran medida, están compuestas de momentos completamente superficiales, de comentarios vanos, de chistes que no reflejan más que las ganas de echar unas risas, y de tonterías que no van a ningún sitio ni tendrán lugar jamás en ningún tratado de nada. Lo único que hacen las redes sociales es reflejar eso: si solo las utilizásemos para reflejar sentimientos genuinos, profundos y con un valor testimonial similar al de una promesa de amor eterno, serían un maldito tostón y no las utilizaría nadie con regularidad! No, la vida no son las redes sociales, pero tampoco es una sucesión de momentos necesariamente trascendentales y profundos. La vida es otra cosa.

¿Pueden las redes sociales volverte un psicópata, un acosador, un voyeurista, o generarte una depresión? Pues por supuesto que pueden. Como todo. Mal utilizadas, las redes sociales pueden convertirte en todo eso o en un asesino en serie, según sean los procesos que tienen lugar en los recovecos de tu maldito cerebro. Vamos a dejarnos de tonterías, por favor: si pretendemos dedicarle tiempo a pensar si las redes sociales son malas o no, tendremos que dedicárselo también a los terribles efectos secundarios del exceso de dulce de leche, o del queso. Y no, por el queso si que ya no estoy dispuesto a pasar!

¿Quiere eso decir que no tenemos que hacer nada? No, tampoco. Si una parte del mal uso de las redes sociales son personas que las utilizan para hacer sufrir a otras mediante acoso, insultos, amenazas o actitudes negativas, deberemos intentar poner freno a ese tipo de comportamientos. Si hay personas que se deprimen, o que llegan a plantearse el suicidio debido en parte a su uso de las redes sociales, deberemos intentar detectarlo y ponerle freno, porque intentar ayudar en esas situaciones siempre es potencialmente positivo, de pura humanidad y de sentido común. ¿Resulta posible que un adolescente, obsesionado por la inyección de dopamina que le supone cada Like en una foto de Instagram, termine compartiendo lo que no debe? Por supuesto, y si no lo educamos en condiciones, es muy posible que ocurra. ¿Quiere decir eso que Instagram es malo? No, coño, ¡quiere decir que no se puede renunciar a educar a los niños, y que quien lo hace es un irresponsable!

Si hay pautas de uso de Facebook destinadas a generar un uso compulsivo o a que compartamos incluso lo que no debe ser compartido, deberemos protestar contra ellas e intentar acabar con ellas. ¿Qué sentido tiene que Facebook me recuerde en cada una de mis publicaciones que puedo gastarme dinero en promocionarla para que llegue a más personas, y que por más que oculte ese “amistoso consejo”, Facebook se empeñe en volvérmelo a mostrar? ¿Serías tan amable, Facebook, de dejar de hacer esa estupidez? Que sí, que ya sé que tienes que vivir de algo, pero no va a ser de que un profesor se dedique a gastarse el dinero de su sueldo en llegar a más personas… si se supone que me conoces tan bien, a estas alturas deberías ya de saberlo, y no tratar a todos los usuarios con el mismo patrón cansino y repetitivo, ¿no te parece? ¿O es que la inteligencia artificial solo se usa en un sentido? Si Facebook va a modificar progresivamente sus algoritmos para que mis publicaciones lleguen cada vez a menos gente y sienta que la única manera de llegar a los mismos que llegaba antes es gastarme dinero en publicidad, pues vale, qué le vamos a hacer, es su algoritmo y lo utiliza como quiere, pero posiblemente acabe cansándome de la condena artificial a una forzada irrelevancia y me vaya con mis contenidos a otro sitio.

Pretender que las redes sociales son como el tabaco es, sencillamente, una soberana estupidez. Si no tienes madurez como para gestionar tus redes sociales sin generarte una depresión o un cabreo diario, abandónalas, pero no vayas por el mundo protestando por unos efectos que solo tú te causas a ti mismo y pidiendo medidas cautelares de protección, porque es lo que hay: todo en exceso o mal utilizado puede matarte. La vida mata. Vamos a dejarnos de sobreprotecciones y de tonterías, por favor, que a base de intentar protegernos de todo van a conseguir que no sepamos protegernos de nada.

 

SimpleFunsEl artículo que posiblemente leas y veas comentado hoy si tus listas de suscripciones están mínimamente completas es este de James Bridle titulado  Something is wrong on the internet, un texto largo y detallado en el que el autor se preocupa por la proliferación de determinados vídeos en YouTube Kids, un producto diseñado por la compañía para proporcionar vídeos adecuados a los niños y que muchos padres tienden a emplear como auténtico “dispositivo apaganiños”, con contenidos completamente inadecuados desde múltiples puntos de vista, y apoyándose en los algoritmos de recomendación de la plataforma para encabezar las listas de popularidad y obtener ingresos publicitarios.

La presencia de este tipo de vídeos inapropiados ha sido puesta de manifiesto en otras ocasiones: contenidos que aprovechan personajes muy conocidos por los niños y los hacen protagonizar escenas violentas o de otros tipos, habitualmente con grafismos extremadamente simples, confeccionados con muy poco esfuerzo. El análisis de Bridle incide no solo en los vídeos como tales, sino más bien en el mecanismo de una plataforma que no solo posibilita este tipo de comportamientos, sino que los recompensa mediante sus algoritmos y el sistema económico de premiar la atención al que da lugar. Un análisis interesante, que pone el peso en la plataforma, en una YouTube que no parece hacer mucho de cara a la eliminación de este tipo de contenidos más allá de ofrecer sistemas que permiten que sean denunciados o marcados como inapropiados, y que no ha tenido ningún éxito por el momento de cara a su erradicación.

Sin embargo, el verdadero análisis, para mí, es todavía más desasosegante: indudablemente, internet tiene un problema. La combinación de factores como el desarrollo sin límites de la economía de la atención, los algoritmos que premian el sensacionalismo o el contenido más impactante, las posibilidades de anonimato o de trazabilidad compleja y otra serie de características de la red han dado lugar a un sistema en el que constantemente nos sorprendemos encontrando cosas que, si hacemos caso a la gran mayoría de observadores, no deberían estar ahí. Pero en realidad, el verdadero problema no está en internet: está en la naturaleza humana.

Me explico: todo sistema es susceptible de ser utilizado de diversas maneras. La ausencia de regulación para evitar comportamientos definidos o considerados nocivos, o los sistemas de regulación ineficientes, generan abusos de numerosos tipos. Podemos constatarlos en todas partes: a la popularización del correo electrónico sigue la proliferación del spam. ¿Es el spam un problema de diseño, algo de lo que debamos hacer responsables a los inventores del protocolo del correo electrónico o a los que comercializan herramientas para que los consumidores lo usen? No, es un problema de que una serie de actores descubren que pueden utilizar los protocolos del correo electrónico para enviar con un coste bajísimo mensajes comerciales a una gran cantidad de usuarios incautos, inexpertos o directamente idiotas, y aprovechar para separarlos de su dinero. Ese comportamiento es constante: cada servicio que surge cuenta con su caterva de aprovechados dispuestos a utilizarlo para engañar, robar, manipular o retorcer su propósito original. Las redes sociales son plataformas para compartir contenidos, pero convenientemente retorcidas, se convierten en herramientas para manipular un proceso electoral. YouTube sirve para ver vídeos, pero si la retorcemos adecuadamente, podemos conseguir que sirva para engañar a niños con contenidos inadecuados y ganar dinero a costa de exponerlos a contenidos a los que no deberían ser expuestos. Da igual el ejemplo que propongas: todos cuentan con usos inadecuados, inmorales o directamente delictivos que algunos pretenden utilizar para su beneficio. ¿Surgen los ICOs? Rápidamente proliferan personajes nocivos dispuestos a confundir a potenciales inversores y robarles su dinero.

¿Estamos hablando de un problema de internet? No, hablamos de un problema de la naturaleza humana. En ausencia de una regulación efectiva debido a la velocidad con la que se desarrollan y popularizan las nuevas herramientas, los delincuentes evolucionan y se convierten en los primeros colonizadores de cada nuevo nicho ecológico que surge en el planeta red. Para cuando se defina como delito subir vídeos a YouTube y aprovechar sus algoritmos para incrementar su popularidad, los delincuentes estarán haciendo otras cosas completamente diferentes. Probablemente un buen abogado encuentre siempre suficiente indefinición en esos comportamientos como para conseguir que salgan absueltos, y el simple principio de “no sé como definirlo pero lo reconozco cuando lo veo”, el I know it when I see it que podría contribuir con algo tan inherentemente humano como el sentido común a aliviar el problema, no se utiliza lo suficiente. No parecen existir tribunales ni jueces suficientes como para solventar los problemas que detectamos en internet todos los días, y si existiesen, se verían confrontados con una realidad compleja de fueros y sistemas judiciales nacionales tratando de mala manera de operar en un entorno global y sin fronteras. Lo que un estado intenta definir como un comportamiento execrable y encuadrar en un tipo penal evidente que sin duda ya existía, en otro estado está completamente sin legislar, o se sitúa en un limbo en el que las leyes resultan de imposible aplicación. Los mecanismos sociales de control, elementos como la reputación o la censura social que a otra escala y en otros períodos históricos se han convertido en elementos que ponían relativo coto a determinados comportamientos, tampoco funcionan, porque no se desarrollan con la necesaria velocidad. Cuando un individuo malintencionado encuentra una manera de aprovecharse de una plataforma determinada, la mayor parte de la sociedad ni siquiera es capaz aún de entender qué es lo que está haciendo.

Hemos construido una herramienta que no sabemos controlar, y que muchos consiguen retorcer para su beneficio incurriendo en comportamientos que cualquiera con un mínimo sentido común encontraría castigables, pero que en rarísimas ocasiones son castigados. Y de nuevo: el problema no está en la red, sino en la naturaleza humana, en las más profundas miserias de nuestra condición. ¿Cómo definir a un tipo que convierte en medio de vida el exponer a niños a contenidos completamente inadecuados y censurables? ¿Qué castigo debería encontrar si la justicia funcionase? ¿Cómo plantearse desincentivar un comportamiento semejante? ¿Cómo adaptar la legislación y los sistemas que tratan de poner bajo control lo peor de la naturaleza humana en un marco que evoluciona tan rápidamente?

 

IMAGE: Karen Roach - 123RF

Según Twitter, apoyándose en datos generados internamente, sus esfuerzos para combatir el acoso y el abuso en su red están finalmente dando sus frutos.

Las declaraciones de la compañía contrastan con las de un buen número de usuarios que afirman, con capturas y ejemplos de tweets que incurren en este tipo de conductas, que la compañía salda de forma sistemática un número significativamente elevado de reclamaciones con afirmaciones de que “no viola las reglas de la compañía”.

El asunto en discusión es tan sencillo como la definición de acoso o abuso en un contexto social. Según Twitter, algo es acoso no cuando el afectado lo denuncia, sino cuando alguien, dentro de Twitter, lo examina, lo juzga, y emite su veredicto. Según Twitter, ellos son los jueces inapelables de lo que constituye acoso o abuso en su red, y la opinión de los denunciantes de tales conductas no cuenta en absoluto. Visto así, ese tipo de contestaciones, que hace algunos años tuve la ocasión de recibir yo mismo, son un recurso sencillo y barato para la compañía, que puede decidir qué comportamientos son constitutivos de acoso y abuso y cuáles no, y reportar las cifras que le vengan en gana sobre la reducción de esos comportamientos en su red.

El problema de erigirse en juez inapelable sobre lo que es acoso o abuso es que, en realidad, eso no es lícito en absoluto. En un contexto social, la única persona que puede juzgar si un comportamiento constituye acoso o abuso es el afectado. Si un afectado afirma estar siendo objeto de acoso o abuso, ese acoso o ese abuso automáticamente deben pasar a existir. El acoso o el abuso son problemas esencialmente subjetivos: alguien puede acosar a otra persona simplemente insistiendo en un tema determinado, aunque lo haga con unos modales perfectos. Los límites de ese acoso o abuso, en ese sentido, podrían llegar a marcarse en función de las características de la víctima: los personajes públicos, por su visibilidad, podrían estar en cierto sentido obligados a aceptar determinados niveles de acoso o abuso, o en particular aquellos que fuesen relevantes con respecto a las razones por las que poseen esa visibilidad. Así, preguntar insistentemente a un político por un caso de corrupción difícilmente podría ser conceptualizado como acoso, pero hacer lo mismo con un ciudadano anónimo con respecto a una factura supuestamente impagada sí podría serlo. La clave, desde mi punto de vista, está en la dimensión social.

Otro elemento evidente estaría, muy posiblemente, en la fuerza empleada: no es lo mismo que alguien insulte a otra persona desde una cuenta con pocos seguidores, posiblemente anónima y carente de credibilidad alguna, que el que ese insulto sea dirigido desde una cuenta con una trascendencia elevada, con un gran número de seguidores o con una visibilidad relevante. La dimensión social añade a cuestiones como el acoso o el abuso una serie de variables que es preciso tener en cuenta a la hora de emitir una opinión sobre su naturaleza.

Pero el principal problema, desde mi punto de vista, estriba en la naturaleza de la cuestión: un comportamiento no es constitutivo de acoso o abuso “porque lo diga Twitter”, sino porque lo diga el afectado. ¿Podría esta política de tolerancia cero ser utilizada por algunas personas para suprimir determinadas actitudes que, en términos estrictamente judiciales, podrían ser considerados lícitos? Posiblemente, pero es que precisamente en eso está la cuestión: la conversación en un contexto social no puede judicializarse, no puede convertirse en un estrado sin juez ni leyes establecidas, y mucho menos puede ser Twitter, parte interesada, quien pretenda erigirse en juez. En un lado está el contexto social, con sus propias reglas marcadas, fundamentalmente, por las normas de la buena educación y otros consensos sociales generalmente aceptados , y en otro lado completamente separado están los tribunales que juzgan delitos como la injuria, el acoso o la difamación. Son niveles diferentes, y Twitter nunca debería, desde mi punto de vista, entrar en el juego de considerarse juez. Lo que Twitter tendría que hacer, de nuevo desde mi punto de vista estrictamente personal, es tomar todas las reclamaciones de acoso o abuso y procesarlas debidamente con arreglo a una serie de protocolos, que pueden incluir desde el borrado del tweet y la advertencia al infractor, hasta la eliminación de la cuenta y la adopción de medidas de exclusión. La única manera de mantener una red social libre de elementos nocivos como el acoso o el abuso es con una política de tolerancia cero.

Mientras esa política de tolerancia cero, mientras el objeto de acoso o abuso no sea quien determine si un comportamiento lo es o no lo es, los datos que Twitter ofrezca sobre los resultados de sus acciones en ese sentido carecerán de toda credibilidad. Pero una vez más: hablamos de un asunto sensible, en el que mi sensibilidad además se acrecienta por haberlo sufrido personalmente, y en el que, obviamente, puede haber opiniones en otros sentidos.

 

The Exorcist (1973)Dos interesantes artículos hoy hacen referencia a experiencias que han resultado ser exitosas a la hora de eliminar de determinados servicios problemas como las noticias falsas o las dinámicas de acoso e insulto.

Por un lado, Fusion publica What GitHub did to kill its trolls, una pieza larga y detallada sobre cómo la mayor plataforma de publicación y colaboración para software de código abierto del mundo fue capaz de conjurar un problema de dinámicas nocivas de interacción que amenazaba con convertir en muy incómoda la interacción en la página, que en el año 2014 llevaba ya algún tiempo viendo abandonos de usuarios que manifestaban quejas de trolling, bullying, machismo, abuso, acoso e insultos.

¿La receta? Equipos de gestión creados con personas de orígenes muy diversos, con muy diferentes sensibilidades con respecto a los distintos temas, y muy comprometidos con su labor, con la idea no tanto de crear nuevas normas de conducta, sino de detectar todos los resquicios del funcionamiento del sitio que permitían o incluso fomentaban la aparición de ese tipo de dinámicas. Una respuesta muy diferente a la tomada por redes como Twitter, en las que esas dinámicas no son tristemente la excepción sino la norma, y que como mucho, llegan a ofrecer a los usuarios herramientas para que puedan llevar a cabo la absurda “estrategia del avestruz”, para poder ocultarse a sí mismos las dinámicas abusivas, pretendiendo aquello de “si no puedo ver el problema, ya no existe”.

En el segundo artículo, titulado Why Snapchat and Apple don’t have a fake news problem, Buzzfeed especula sobre las razones por las que determinadas plataformas de consumo de noticias, como Apple News o Snapchat Discover, no tienen los problemas derivados de la publicación de noticias falsas que sí sufren otras como Facebook. La respuesta, en este caso, parece clara: un nivel de control y supervisión mucho más rígido y manual, una aprobación particularizada de cada una de las fuentes, y mecanismos de interacción que no tienden tanto a premiar lo social entendido como acumulación de Likes, de follows o de algoritmos que puedan ser manipulados, sino mediante reglas mucho más sencillas, como la exposición cronológica.

No hablamos de casos aislados o poco importantes cuantitativamente: Snapchat, con sus 150 millones de usuarios diarios, supera ya en 10 millones de usuarios activos a redes como Twitter, y obtiene importantes ingresos gracias a Discover, la plataforma de compartición de noticias en la que muchísimos usuarios fundamentalmente adolescentes, que resultan muy difíciles de alcanzar para la mayoría de los medios, leen noticias de una serie de publicaciones que pasan por un riguroso proceso de admisión y control. No hablamos de un sistema en el que grupos de adolescentes macedonios puedan dedicarse a ganar un dinero generando noticias falsas que se convierten en virales, ni donde publicaciones de dudosa reputación puedan inyectar noticias completamente falsas e inventadas, sino de un sitio con reglas serias donde el derecho de admisión está claramente señalizado y tiene un coste, en absoluto trivial. En el caso de Apple News, hablamos de 70 millones de usuarios activos y de contenido disponible de más de 4,000 publicaciones, pero en la que el acceso está regulado por el miso tipo de reglas rígidas y conocidas que gobiernan la tienda de aplicaciones de la compañía: incumple las normas, y te verás rápidamente excluido.

¿De qué estamos hablando? Claramente, la responsabilidad de gestionar una plataforma debe ir bastante más allá de la posibilidad de crearla técnicamente. Si no aplicamos principios de gestión claros e inequívocos, el destino es el que es: caer víctimas de algo tan imparable como la mismísima naturaleza humana. Los problemas de las plataformas, en realidad, no lo son tanto de las plataformas como de sus usuarios, que necesitan aparentemente estar sujetos a procesos de control y supervisión que eviten que salga a la superficie lo peor de su naturaleza. Y para evitarlo, aparecen mecanismos como el control y la supervisión, expresados a través de distintos sistemas que van desde el trabajo de equipos de moderación, hasta el desarrollo de barreras de entrada. El primer caso, Github, termina por resultarme mucho más atractivo debido al componente democrático que posee: cualquier persona puede crear un proyecto en la plataforma, sin ningún tipo de limitación, y los problemas únicamente surgen si esa persona entra en dinámicas de comportamiento abusivo, momento en el que se encontrará con el equipo de gestión de la comunidad. En el caso de Apple o Snapchat, el mecanismo me resulta menos interesante: que las cosas funcionen mejor cuando las barreras de entrada son más elevadas, y como tales barreras, dejen fuera a muchos que podrían posiblemente generar contribuciones valiosas, me parece una manera de tirar al niño con el agua del baño, aunque indudablemente esté siendo capaz de probar su buen funcionamiento.

Lo que no cabe duda es que mecanismos de este tipo, en distintas combinaciones, son cada día más necesarios para gestionar plataformas en la red, y el estudio de casos como estos puede probarse muy valioso a la hora de pensar sobre ese fenómeno. El sueño buenista de una red completamente abierta y sin limitaciones a la participación ha llegado a un punto en el que, al encontrarse con lo peor de la naturaleza humana, ha terminado por probar sus numerosas limitaciones. Triste, pero desgraciadamente real.