IMAGE: Ioulia Bolchakova - 123RFEn un nuevo capítulo de su serie Hard Questions titulado Is spending time on social media bad for us?, Facebook admite que bajo determinadas circunstancias, el uso de las redes sociales puede provocar efectos negativos sobre las personas.

Desde mi punto de vista, es la mayor tontería que he visto escrita en mucho tiempo: una de esas afirmaciones que son, en realidad, verdades universales, y que requieren una lectura e interpretación completa antes de que, como tantos hacen hoy en día, nos lancemos a compartir sin medida tras simplemente leer el titular.

¿Puede el uso de redes sociales ser malo? ¡Por supuesto! TODO, absolutamente TODO, puede ser malo para la salud. Los americanos lo dicen claramente en una frase hecha, “too much of a good thing can kill you”. Hasta las cosas más buenas son potencialmente malas y te pueden matar, desde ejemplos tan obvios como el alcohol, que sienta fenomenal en determinadas ocasiones pero puede llegar a mataros a ti o a tu hígado cuando te excedes en su consumo, hasta cualquier otra cuestión, sea el ejercicio, el café, el azúcar, el queso o el dulce de leche. Da igual de qué hablemos: un consumo excesivo o mal entendido puede matarte. Es tan obvio y tan estúpido que resulta profundamente sorprendente que se comente. ¡Dios mío, que hasta la propia Facebook lo reconoce!! ¿Claro, no hace más que reconocer una obviedad tan grande como que el mal uso de cualquier cosa puede ser perjudicial, no veo nada sorprendente en ello! A las tabaqueras, de hecho, les costó mucho más hacerlo…

¿Pueden ser negativas las redes sociales? Pues eso, como todo. Un uso adecuado de las redes sociales te permite mantenerte más en contacto con tus amigos y conocidos, puede generarte incluso más ocasiones para la socialización y el contacto casual periódico, mantenerte más informado de lo que hacen o a qué se dedican, de sus circunstancias personales, de sus viajes o de su vida en general. ¿Es superficial? Por supuesto… ¿es que de verdad esperábamos una profundidad rayana en lo filosófico de una red social? ¿Lo esperamos de una conversación cuando te encuentras en una acera, o de un café en un bar? “Vaya, me felicita el cumpleaños por Facebook, qué poco personal!” Ya, por supuesto, porque cuando te ve y te da dos besos es un momentazo místico de profunda contemplación… ¡venga ya! Las relaciones sociales, en gran medida, están compuestas de momentos completamente superficiales, de comentarios vanos, de chistes que no reflejan más que las ganas de echar unas risas, y de tonterías que no van a ningún sitio ni tendrán lugar jamás en ningún tratado de nada. Lo único que hacen las redes sociales es reflejar eso: si solo las utilizásemos para reflejar sentimientos genuinos, profundos y con un valor testimonial similar al de una promesa de amor eterno, serían un maldito tostón y no las utilizaría nadie con regularidad! No, la vida no son las redes sociales, pero tampoco es una sucesión de momentos necesariamente trascendentales y profundos. La vida es otra cosa.

¿Pueden las redes sociales volverte un psicópata, un acosador, un voyeurista, o generarte una depresión? Pues por supuesto que pueden. Como todo. Mal utilizadas, las redes sociales pueden convertirte en todo eso o en un asesino en serie, según sean los procesos que tienen lugar en los recovecos de tu maldito cerebro. Vamos a dejarnos de tonterías, por favor: si pretendemos dedicarle tiempo a pensar si las redes sociales son malas o no, tendremos que dedicárselo también a los terribles efectos secundarios del exceso de dulce de leche, o del queso. Y no, por el queso si que ya no estoy dispuesto a pasar!

¿Quiere eso decir que no tenemos que hacer nada? No, tampoco. Si una parte del mal uso de las redes sociales son personas que las utilizan para hacer sufrir a otras mediante acoso, insultos, amenazas o actitudes negativas, deberemos intentar poner freno a ese tipo de comportamientos. Si hay personas que se deprimen, o que llegan a plantearse el suicidio debido en parte a su uso de las redes sociales, deberemos intentar detectarlo y ponerle freno, porque intentar ayudar en esas situaciones siempre es potencialmente positivo, de pura humanidad y de sentido común. ¿Resulta posible que un adolescente, obsesionado por la inyección de dopamina que le supone cada Like en una foto de Instagram, termine compartiendo lo que no debe? Por supuesto, y si no lo educamos en condiciones, es muy posible que ocurra. ¿Quiere decir eso que Instagram es malo? No, coño, ¡quiere decir que no se puede renunciar a educar a los niños, y que quien lo hace es un irresponsable!

Si hay pautas de uso de Facebook destinadas a generar un uso compulsivo o a que compartamos incluso lo que no debe ser compartido, deberemos protestar contra ellas e intentar acabar con ellas. ¿Qué sentido tiene que Facebook me recuerde en cada una de mis publicaciones que puedo gastarme dinero en promocionarla para que llegue a más personas, y que por más que oculte ese “amistoso consejo”, Facebook se empeñe en volvérmelo a mostrar? ¿Serías tan amable, Facebook, de dejar de hacer esa estupidez? Que sí, que ya sé que tienes que vivir de algo, pero no va a ser de que un profesor se dedique a gastarse el dinero de su sueldo en llegar a más personas… si se supone que me conoces tan bien, a estas alturas deberías ya de saberlo, y no tratar a todos los usuarios con el mismo patrón cansino y repetitivo, ¿no te parece? ¿O es que la inteligencia artificial solo se usa en un sentido? Si Facebook va a modificar progresivamente sus algoritmos para que mis publicaciones lleguen cada vez a menos gente y sienta que la única manera de llegar a los mismos que llegaba antes es gastarme dinero en publicidad, pues vale, qué le vamos a hacer, es su algoritmo y lo utiliza como quiere, pero posiblemente acabe cansándome de la condena artificial a una forzada irrelevancia y me vaya con mis contenidos a otro sitio.

Pretender que las redes sociales son como el tabaco es, sencillamente, una soberana estupidez. Si no tienes madurez como para gestionar tus redes sociales sin generarte una depresión o un cabreo diario, abandónalas, pero no vayas por el mundo protestando por unos efectos que solo tú te causas a ti mismo y pidiendo medidas cautelares de protección, porque es lo que hay: todo en exceso o mal utilizado puede matarte. La vida mata. Vamos a dejarnos de sobreprotecciones y de tonterías, por favor, que a base de intentar protegernos de todo van a conseguir que no sepamos protegernos de nada.

 

SimpleFunsEl artículo que posiblemente leas y veas comentado hoy si tus listas de suscripciones están mínimamente completas es este de James Bridle titulado  Something is wrong on the internet, un texto largo y detallado en el que el autor se preocupa por la proliferación de determinados vídeos en YouTube Kids, un producto diseñado por la compañía para proporcionar vídeos adecuados a los niños y que muchos padres tienden a emplear como auténtico “dispositivo apaganiños”, con contenidos completamente inadecuados desde múltiples puntos de vista, y apoyándose en los algoritmos de recomendación de la plataforma para encabezar las listas de popularidad y obtener ingresos publicitarios.

La presencia de este tipo de vídeos inapropiados ha sido puesta de manifiesto en otras ocasiones: contenidos que aprovechan personajes muy conocidos por los niños y los hacen protagonizar escenas violentas o de otros tipos, habitualmente con grafismos extremadamente simples, confeccionados con muy poco esfuerzo. El análisis de Bridle incide no solo en los vídeos como tales, sino más bien en el mecanismo de una plataforma que no solo posibilita este tipo de comportamientos, sino que los recompensa mediante sus algoritmos y el sistema económico de premiar la atención al que da lugar. Un análisis interesante, que pone el peso en la plataforma, en una YouTube que no parece hacer mucho de cara a la eliminación de este tipo de contenidos más allá de ofrecer sistemas que permiten que sean denunciados o marcados como inapropiados, y que no ha tenido ningún éxito por el momento de cara a su erradicación.

Sin embargo, el verdadero análisis, para mí, es todavía más desasosegante: indudablemente, internet tiene un problema. La combinación de factores como el desarrollo sin límites de la economía de la atención, los algoritmos que premian el sensacionalismo o el contenido más impactante, las posibilidades de anonimato o de trazabilidad compleja y otra serie de características de la red han dado lugar a un sistema en el que constantemente nos sorprendemos encontrando cosas que, si hacemos caso a la gran mayoría de observadores, no deberían estar ahí. Pero en realidad, el verdadero problema no está en internet: está en la naturaleza humana.

Me explico: todo sistema es susceptible de ser utilizado de diversas maneras. La ausencia de regulación para evitar comportamientos definidos o considerados nocivos, o los sistemas de regulación ineficientes, generan abusos de numerosos tipos. Podemos constatarlos en todas partes: a la popularización del correo electrónico sigue la proliferación del spam. ¿Es el spam un problema de diseño, algo de lo que debamos hacer responsables a los inventores del protocolo del correo electrónico o a los que comercializan herramientas para que los consumidores lo usen? No, es un problema de que una serie de actores descubren que pueden utilizar los protocolos del correo electrónico para enviar con un coste bajísimo mensajes comerciales a una gran cantidad de usuarios incautos, inexpertos o directamente idiotas, y aprovechar para separarlos de su dinero. Ese comportamiento es constante: cada servicio que surge cuenta con su caterva de aprovechados dispuestos a utilizarlo para engañar, robar, manipular o retorcer su propósito original. Las redes sociales son plataformas para compartir contenidos, pero convenientemente retorcidas, se convierten en herramientas para manipular un proceso electoral. YouTube sirve para ver vídeos, pero si la retorcemos adecuadamente, podemos conseguir que sirva para engañar a niños con contenidos inadecuados y ganar dinero a costa de exponerlos a contenidos a los que no deberían ser expuestos. Da igual el ejemplo que propongas: todos cuentan con usos inadecuados, inmorales o directamente delictivos que algunos pretenden utilizar para su beneficio. ¿Surgen los ICOs? Rápidamente proliferan personajes nocivos dispuestos a confundir a potenciales inversores y robarles su dinero.

¿Estamos hablando de un problema de internet? No, hablamos de un problema de la naturaleza humana. En ausencia de una regulación efectiva debido a la velocidad con la que se desarrollan y popularizan las nuevas herramientas, los delincuentes evolucionan y se convierten en los primeros colonizadores de cada nuevo nicho ecológico que surge en el planeta red. Para cuando se defina como delito subir vídeos a YouTube y aprovechar sus algoritmos para incrementar su popularidad, los delincuentes estarán haciendo otras cosas completamente diferentes. Probablemente un buen abogado encuentre siempre suficiente indefinición en esos comportamientos como para conseguir que salgan absueltos, y el simple principio de “no sé como definirlo pero lo reconozco cuando lo veo”, el I know it when I see it que podría contribuir con algo tan inherentemente humano como el sentido común a aliviar el problema, no se utiliza lo suficiente. No parecen existir tribunales ni jueces suficientes como para solventar los problemas que detectamos en internet todos los días, y si existiesen, se verían confrontados con una realidad compleja de fueros y sistemas judiciales nacionales tratando de mala manera de operar en un entorno global y sin fronteras. Lo que un estado intenta definir como un comportamiento execrable y encuadrar en un tipo penal evidente que sin duda ya existía, en otro estado está completamente sin legislar, o se sitúa en un limbo en el que las leyes resultan de imposible aplicación. Los mecanismos sociales de control, elementos como la reputación o la censura social que a otra escala y en otros períodos históricos se han convertido en elementos que ponían relativo coto a determinados comportamientos, tampoco funcionan, porque no se desarrollan con la necesaria velocidad. Cuando un individuo malintencionado encuentra una manera de aprovecharse de una plataforma determinada, la mayor parte de la sociedad ni siquiera es capaz aún de entender qué es lo que está haciendo.

Hemos construido una herramienta que no sabemos controlar, y que muchos consiguen retorcer para su beneficio incurriendo en comportamientos que cualquiera con un mínimo sentido común encontraría castigables, pero que en rarísimas ocasiones son castigados. Y de nuevo: el problema no está en la red, sino en la naturaleza humana, en las más profundas miserias de nuestra condición. ¿Cómo definir a un tipo que convierte en medio de vida el exponer a niños a contenidos completamente inadecuados y censurables? ¿Qué castigo debería encontrar si la justicia funcionase? ¿Cómo plantearse desincentivar un comportamiento semejante? ¿Cómo adaptar la legislación y los sistemas que tratan de poner bajo control lo peor de la naturaleza humana en un marco que evoluciona tan rápidamente?

 

IMAGE: Karen Roach - 123RF

Según Twitter, apoyándose en datos generados internamente, sus esfuerzos para combatir el acoso y el abuso en su red están finalmente dando sus frutos.

Las declaraciones de la compañía contrastan con las de un buen número de usuarios que afirman, con capturas y ejemplos de tweets que incurren en este tipo de conductas, que la compañía salda de forma sistemática un número significativamente elevado de reclamaciones con afirmaciones de que “no viola las reglas de la compañía”.

El asunto en discusión es tan sencillo como la definición de acoso o abuso en un contexto social. Según Twitter, algo es acoso no cuando el afectado lo denuncia, sino cuando alguien, dentro de Twitter, lo examina, lo juzga, y emite su veredicto. Según Twitter, ellos son los jueces inapelables de lo que constituye acoso o abuso en su red, y la opinión de los denunciantes de tales conductas no cuenta en absoluto. Visto así, ese tipo de contestaciones, que hace algunos años tuve la ocasión de recibir yo mismo, son un recurso sencillo y barato para la compañía, que puede decidir qué comportamientos son constitutivos de acoso y abuso y cuáles no, y reportar las cifras que le vengan en gana sobre la reducción de esos comportamientos en su red.

El problema de erigirse en juez inapelable sobre lo que es acoso o abuso es que, en realidad, eso no es lícito en absoluto. En un contexto social, la única persona que puede juzgar si un comportamiento constituye acoso o abuso es el afectado. Si un afectado afirma estar siendo objeto de acoso o abuso, ese acoso o ese abuso automáticamente deben pasar a existir. El acoso o el abuso son problemas esencialmente subjetivos: alguien puede acosar a otra persona simplemente insistiendo en un tema determinado, aunque lo haga con unos modales perfectos. Los límites de ese acoso o abuso, en ese sentido, podrían llegar a marcarse en función de las características de la víctima: los personajes públicos, por su visibilidad, podrían estar en cierto sentido obligados a aceptar determinados niveles de acoso o abuso, o en particular aquellos que fuesen relevantes con respecto a las razones por las que poseen esa visibilidad. Así, preguntar insistentemente a un político por un caso de corrupción difícilmente podría ser conceptualizado como acoso, pero hacer lo mismo con un ciudadano anónimo con respecto a una factura supuestamente impagada sí podría serlo. La clave, desde mi punto de vista, está en la dimensión social.

Otro elemento evidente estaría, muy posiblemente, en la fuerza empleada: no es lo mismo que alguien insulte a otra persona desde una cuenta con pocos seguidores, posiblemente anónima y carente de credibilidad alguna, que el que ese insulto sea dirigido desde una cuenta con una trascendencia elevada, con un gran número de seguidores o con una visibilidad relevante. La dimensión social añade a cuestiones como el acoso o el abuso una serie de variables que es preciso tener en cuenta a la hora de emitir una opinión sobre su naturaleza.

Pero el principal problema, desde mi punto de vista, estriba en la naturaleza de la cuestión: un comportamiento no es constitutivo de acoso o abuso “porque lo diga Twitter”, sino porque lo diga el afectado. ¿Podría esta política de tolerancia cero ser utilizada por algunas personas para suprimir determinadas actitudes que, en términos estrictamente judiciales, podrían ser considerados lícitos? Posiblemente, pero es que precisamente en eso está la cuestión: la conversación en un contexto social no puede judicializarse, no puede convertirse en un estrado sin juez ni leyes establecidas, y mucho menos puede ser Twitter, parte interesada, quien pretenda erigirse en juez. En un lado está el contexto social, con sus propias reglas marcadas, fundamentalmente, por las normas de la buena educación y otros consensos sociales generalmente aceptados , y en otro lado completamente separado están los tribunales que juzgan delitos como la injuria, el acoso o la difamación. Son niveles diferentes, y Twitter nunca debería, desde mi punto de vista, entrar en el juego de considerarse juez. Lo que Twitter tendría que hacer, de nuevo desde mi punto de vista estrictamente personal, es tomar todas las reclamaciones de acoso o abuso y procesarlas debidamente con arreglo a una serie de protocolos, que pueden incluir desde el borrado del tweet y la advertencia al infractor, hasta la eliminación de la cuenta y la adopción de medidas de exclusión. La única manera de mantener una red social libre de elementos nocivos como el acoso o el abuso es con una política de tolerancia cero.

Mientras esa política de tolerancia cero, mientras el objeto de acoso o abuso no sea quien determine si un comportamiento lo es o no lo es, los datos que Twitter ofrezca sobre los resultados de sus acciones en ese sentido carecerán de toda credibilidad. Pero una vez más: hablamos de un asunto sensible, en el que mi sensibilidad además se acrecienta por haberlo sufrido personalmente, y en el que, obviamente, puede haber opiniones en otros sentidos.

 

The Exorcist (1973)Dos interesantes artículos hoy hacen referencia a experiencias que han resultado ser exitosas a la hora de eliminar de determinados servicios problemas como las noticias falsas o las dinámicas de acoso e insulto.

Por un lado, Fusion publica What GitHub did to kill its trolls, una pieza larga y detallada sobre cómo la mayor plataforma de publicación y colaboración para software de código abierto del mundo fue capaz de conjurar un problema de dinámicas nocivas de interacción que amenazaba con convertir en muy incómoda la interacción en la página, que en el año 2014 llevaba ya algún tiempo viendo abandonos de usuarios que manifestaban quejas de trolling, bullying, machismo, abuso, acoso e insultos.

¿La receta? Equipos de gestión creados con personas de orígenes muy diversos, con muy diferentes sensibilidades con respecto a los distintos temas, y muy comprometidos con su labor, con la idea no tanto de crear nuevas normas de conducta, sino de detectar todos los resquicios del funcionamiento del sitio que permitían o incluso fomentaban la aparición de ese tipo de dinámicas. Una respuesta muy diferente a la tomada por redes como Twitter, en las que esas dinámicas no son tristemente la excepción sino la norma, y que como mucho, llegan a ofrecer a los usuarios herramientas para que puedan llevar a cabo la absurda “estrategia del avestruz”, para poder ocultarse a sí mismos las dinámicas abusivas, pretendiendo aquello de “si no puedo ver el problema, ya no existe”.

En el segundo artículo, titulado Why Snapchat and Apple don’t have a fake news problem, Buzzfeed especula sobre las razones por las que determinadas plataformas de consumo de noticias, como Apple News o Snapchat Discover, no tienen los problemas derivados de la publicación de noticias falsas que sí sufren otras como Facebook. La respuesta, en este caso, parece clara: un nivel de control y supervisión mucho más rígido y manual, una aprobación particularizada de cada una de las fuentes, y mecanismos de interacción que no tienden tanto a premiar lo social entendido como acumulación de Likes, de follows o de algoritmos que puedan ser manipulados, sino mediante reglas mucho más sencillas, como la exposición cronológica.

No hablamos de casos aislados o poco importantes cuantitativamente: Snapchat, con sus 150 millones de usuarios diarios, supera ya en 10 millones de usuarios activos a redes como Twitter, y obtiene importantes ingresos gracias a Discover, la plataforma de compartición de noticias en la que muchísimos usuarios fundamentalmente adolescentes, que resultan muy difíciles de alcanzar para la mayoría de los medios, leen noticias de una serie de publicaciones que pasan por un riguroso proceso de admisión y control. No hablamos de un sistema en el que grupos de adolescentes macedonios puedan dedicarse a ganar un dinero generando noticias falsas que se convierten en virales, ni donde publicaciones de dudosa reputación puedan inyectar noticias completamente falsas e inventadas, sino de un sitio con reglas serias donde el derecho de admisión está claramente señalizado y tiene un coste, en absoluto trivial. En el caso de Apple News, hablamos de 70 millones de usuarios activos y de contenido disponible de más de 4,000 publicaciones, pero en la que el acceso está regulado por el miso tipo de reglas rígidas y conocidas que gobiernan la tienda de aplicaciones de la compañía: incumple las normas, y te verás rápidamente excluido.

¿De qué estamos hablando? Claramente, la responsabilidad de gestionar una plataforma debe ir bastante más allá de la posibilidad de crearla técnicamente. Si no aplicamos principios de gestión claros e inequívocos, el destino es el que es: caer víctimas de algo tan imparable como la mismísima naturaleza humana. Los problemas de las plataformas, en realidad, no lo son tanto de las plataformas como de sus usuarios, que necesitan aparentemente estar sujetos a procesos de control y supervisión que eviten que salga a la superficie lo peor de su naturaleza. Y para evitarlo, aparecen mecanismos como el control y la supervisión, expresados a través de distintos sistemas que van desde el trabajo de equipos de moderación, hasta el desarrollo de barreras de entrada. El primer caso, Github, termina por resultarme mucho más atractivo debido al componente democrático que posee: cualquier persona puede crear un proyecto en la plataforma, sin ningún tipo de limitación, y los problemas únicamente surgen si esa persona entra en dinámicas de comportamiento abusivo, momento en el que se encontrará con el equipo de gestión de la comunidad. En el caso de Apple o Snapchat, el mecanismo me resulta menos interesante: que las cosas funcionen mejor cuando las barreras de entrada son más elevadas, y como tales barreras, dejen fuera a muchos que podrían posiblemente generar contribuciones valiosas, me parece una manera de tirar al niño con el agua del baño, aunque indudablemente esté siendo capaz de probar su buen funcionamiento.

Lo que no cabe duda es que mecanismos de este tipo, en distintas combinaciones, son cada día más necesarios para gestionar plataformas en la red, y el estudio de casos como estos puede probarse muy valioso a la hora de pensar sobre ese fenómeno. El sueño buenista de una red completamente abierta y sin limitaciones a la participación ha llegado a un punto en el que, al encontrarse con lo peor de la naturaleza humana, ha terminado por probar sus numerosas limitaciones. Triste, pero desgraciadamente real.

 

Gawker and hateConfieso que me siento incapaz de llegar a conclusiones sólidas en el asunto de la libertad de expresión en internet. Por más que lo analizo y lo intento interpretar a través de años de noticias relacionadas con el tema, no consigo de ninguna manera llegar a una doctrina que pueda abrazar con un mínimo de convicción.

Mi última tormenta cerebral al respecto viene de la lectura de dos artículos, ninguno de los dos perfectos ni mucho menos indiscutibles, pero que sí reflejan puntos de vista relativamente elaborados sobre dos asuntos interesantes: por un lado, el dilema, llevado a la portada de Time, de qué hacer en las redes sociales o en internet en general con el problema de los trolls, del hate speech o de las dinámicas de acoso o abuso, un problema que Twitter lleva experimentando desde hace muchos años. Por otro, el cierre y posterior subasta de Gawker Media, una de las primeras compañías de medios nativos de internet, por obra del millonario Peter Thiel, que decidió aplicar sus muy profundos bolsillos a financiar toda campaña que pudiese contribuir a dañar financieramente a la compañía como parte de una cruzada personal a partir de un artículo que Gawker publicó sobre él.

En cierto sentido, que una compañía con tantas mentes brillantes como Twitter lleve prácticamente una década luchando con ese mismo tipo de dilemas me hace sentir algo mejor: decididamente, no es un tema sencillo. En las disquisiciones de Twitter al respecto, además, he sido juez y parte: en el año 2008, una acción extremadamente mal planteada por Twitter me demostró que el acoso y el bullying iban a ser un problema importante para la compañía, uno que claramente no sabía cómo solucionar. En aquella ocasión, pude ver perfectamente cómo una cuenta cuya actitud yo consideraba claramente acoso, era jaleada por cientos de personas siguiendo exactamente la misma dinámica y actitudes que tiene lugar con el bullying en los patios de colegio, y cómo las soluciones planteadas por la compañía contribuían a empeorar el problema, no a solucionarlo. Hace ya muchos años que Twitter sabe perfectamente que no hacer nada frente al acoso y el bullying no es una solución, y de hecho, empeora el problema generando una cultura de total impunidad al respecto, que ha llevado a algunos a plantearse abandonar Twitter y que algunos afirman que podría llegar hasta el punto de terminar con una compañía que no está siendo capaz de lidiar con la cuestión, y que parece limitarse a poner tiritas. No, retirar los insultos de la pantalla del insultado no los hace desaparecer.

Que una persona, llevada por su popularidad, su ingenio, su capacidad para la ironía o por sus inquinas personales decida arremeter contra otra por la razón que sea, o sin razón alguna, y se vea rodeado por un coro de babosos que jalean su actitud es algo que hace algunos años decidimos como sociedad que estaba mal. Nótese que utilizo la palabra “algunos”, no “muchos”: en el patio de mi colegio, el acoso y el bullying eran algo normal y cotidiano, y la actitud de profesores, del colegio o incluso de los padres era considerarlo “cosas de niños”, algo sin ninguna importancia, sobre lo que en rarísimas ocasiones se tomaba medida alguna. Las cosas han cambiado bastante desde entonces: como sociedad, hemos tenido que ver de todo, incluidos suicidios, para que el acoso y el bullying pasasen a ser considerados prácticas censurables contra las que se debe luchar, pero incluso hoy, el problema dista mucho de estar solucionado – aunque personalmente crea que se han hecho grandes progresos y que estamos decididamente mejor que en mis ya lejanos tiempos de colegio. En la red, sin embargo, el acoso y el bullying siguen funcionando exactamente igual que entonces: los bullies son muy parecidos, los babosos que los corean y jalean son idénticos, el daño inflingido es muy, muy similar… y las medidas para tratar de solucionarlo chocan con lo que para mí son interpretaciones completamente erróneas de lo que se considera libertad de expresión.

En el caso de Gawker, mis sentimientos son aún más complejos. No, no me parece adecuado que el mundo se haya convertido en un lugar en el que, si enfadas a un billonario, corras el riesgo de perder tu empresa, tu trabajo o tu página web. Que Peter Thiel termine cerrando Gawker gracias a sus cuasi-ilimitados recursos económicos no otorga al desenlace ninguna legitimidad. Pero por mucho que no simpaticemos con Peter Thiel… ¿preferimos hacerlo con una publicación que tomó la decisión de publicar un artículo sobre una cuestión completamente personal suya, su sexualidad, que debería tener toda la libertad para decidir hacer pública o no? ¿Debe la libertad de expresión proteger a una publicación que hace algo así, que excede claramente los límites de cualquier derecho, bajo el supuesto objetivo de afflict the comfortable”? Si tu línea editorial consiste en vender lo más posible gracias a publicar lo que te dé la gana, amparado por una interpretación ilimitada de la libertad de expresión, y sin reparar en los posibles daños que puedas ocasionar… ¿no es mejor para la sociedad en su conjunto que te cierren? Sí, lo sé: alegrarme por el cierre de Gawker Media me convertiría automáticamente en una persona muy criticable, que aparentemente querría vivir en un mundo de piruleta, de relaciones públicas y sin ningún tipo de periodismo incisivo, pero ¿estamos seguros de que esa bandera del “periodismo incisivo” y del “si no molestas a alguien es que no has dicho nada interesante” es sostenible? Y peor aún, ¿estamos seguros de querer que lo sea? Si no censuramos a quienes insultan, me temo, estaremos censurando de facto a los insultados: por defender la libertad de expresión de los que insultan, pasamos a perjudicar la liberta de expresión de los que no pueden decir nada sin recibirlos. 

No soy ningún angelito. En ocasiones he publicado cosas que sabía perfectamente que iban a resultar dolorosas para algunas personas. Y cuando lo he hecho, lo he hecho porque he considerado que el cargo o las responsabilidades que ostentaban esas personas justificaba que alguien como yo les exigiese responsabilidades, les afease conductas o les recriminase decisiones. En alguna ocasión, incluso, me han llevado a los tribunales por ello, han tratado de silenciarme y me han ocasionado un perjuicio económico porque a alguien con mucho dinero no le gustaba lo que yo decía, algo que suele calificarse (y no fui el único en hacerlo) como SLAPP, Strategic lawsuit against public participation. Pero sinceramente, no creo que sea una cuestión de cristales, de colores o de interpretaciones de la libertad de expresión: sigo pensando que hablamos de cosas diferentes.

¿Hablamos acaso de “gamas de grises”? ¿Tendemos a ver como inofensivo o a jalear a quien insulta a un poderoso, porque estemos de acuerdo con él, o porque esa persona con poder nos caiga mal o nos genere una malsana envidia? ¿Puede legislarse de una manera coherente sobre algo como la libertad de expresión, sujeta a una subjetividad tan profunda? ¿Qué ocurre con el humor negro, con los chistes de mejor o peor gusto, o con tantas otras manifestaciones capaces de causar sufrimiento a la par que hilaridad? ¿Hay límites? ¿Quién los pone? ¿La ley? ¿La moral, la educación y las buenas costumbres? ¿El sentido común? ¿Todos los anteriores? ¿O ninguno de ellos? Nunca he creído en la censura, condeno sistemáticamente la quema de libros, pero tampoco me parece adecuado que cualquiera pueda andar por el mundo diciendo lo que le dé la gana y sin sufrir ninguna consecuencia por ello. ¿Me convierte eso en un raro?

Creo profundamente en la libertad de expresión. La considero prácticamente una bandera, una causa, algo que vale la pena defender a ultranza. No querría vivir en un país en el que considerase que no existe libertad de expresión. Pero “defender a ultranza” no quiere decir que vaya a defender a los que prostituyen esa bandera para hacer lo que les dé la gana. Creo que libertad de expresión no es lo mismo que “libertad para publicar lo que nos dé la real gana”. Creo que si usas la libertad de expresión como “libertad para ser un perfecto imbécil”, como “libertad para decir lo que se me pase por la cabeza” o como “libertad para hacer daño gratuitamente”, mereces que te echen de los sitios, que te aíslen socialmente, que te multen o que te censuren. Por muy “ingenioso” que seas y por mucha “chispa” que tengas, o por muchos babosos a los que les guste ver como te metes con un poderoso. Creo – profundamente – en la libertad de expresión tanto como no creo en absoluto en el “vale todo”. En muchos sentidos, el problema de Twitter es que ha hecho tan sencillo que cualquiera tenga voz, que ha dado voz a muchos que, sencillamente, no deberían tenerla, que carecen de la responsabilidad mínima que hay que tener para que la sociedad te permita tener voz. Estoy completamente de acuerdo con el artículo de Buzzfeed: con su actitud pasiva, Twitter se ha convertido en un “honeypot for assholes”, un imán para gilipollas que nunca deberían tener acceso a una herramienta como esa, y que, una vez demostrado que es así, deberían perder el derecho a utilizarla durante un tiempo suficiente como para que reflexionen sobre su actitud. Y el caso de Gawker Media me parece similar: no simpatizo con Peter Thiel y no me gusta que el dinero lo pueda comprar todo, pero lo siento, tampoco puedo simpatizar con Nick Denton y su “vale todo”.

Y aquí lo dejo, que seguro que ya me he granjeado suficientes enemigos hoy.