IMAGE: Alex Jones, by Sean P. Anderson - CC BYAlex Jones es, sin duda, la definición enciclopédica de una persona perversa, que causa daño intencionadamente, o que corrompe las costumbres o el orden y estado habitual de las cosas para su propio beneficio. Una de esas personas a las que seguramente te pensarías mucho invitar a su casa, aunque afuera estuviese cayendo el diluvio universal, simplemente para evitar que alguien te viese con él.

Sus ideas ultraconservadoras y su capacidad para la invención constante de noticias falsas y absurdas teorías de la conspiración le han llevado en numerosas ocasiones a lo que cualquier persona mínimamente normal consideraría esperpento: si piensas en cualquier teoría suficientemente estúpida, como las que soportan el movimiento antivacunas, la falsedad de la llegada a la luna, las armas climatológicas, el genocidio blanco o la participación gubernamental en todo tipo de atentados o tiroteos, este tipo las tiene todas, como si las coleccionase, y las utiliza sin ningún tipo de problema para decir barbaridades como que los padres de los pobres niños muertos en la masacre de Sandy Hook son en realidad actores pagados por el gobierno en un suceso que, según él, fue totalmente inventado y nunca existió. A pesar de todo ello, o posiblemente gracias a ello, su página, InfoWars, tiene más de diez millones de visitas mensuales, lo que la convierte en uno de los bastiones de este tipo de absurdas corrientes de pensamiento.

Desde el pasado 24 de julio, las acciones contra Alex Jones e Infowars en las distintas redes sociales se han sucedido de manera constante: ese día, YouTube eliminó cuatro vídeos publicados por InfoWars, suspendió su capacidad para la emisión en vivo, y dio su primera advertencia al canal. El 27 de julio, Facebook suspendió el perfil de Alex Jones durante 30 días, y eliminó los mismos videos que YouTube, citando violaciones de las normas de Facebook contra el discurso de odio y la intimidación. El pasado 5 de agosto, Apple también eliminó cinco podcasts de Infowars de su aplicación. Un día después, el 6 de agosto, Facebook eliminó cuatro páginas relacionadas con Alex Jones por violaciones de su política de apología de la violencia y el discurso del odio. Ese mismo día, YouTube eliminó completamente el canal de InfoWars. Una sucesión de acciones que han servido para que el propio Jones denuncie una persecución a través de la que es prácticamente la única plataforma social que le queda en este momento, Twitter.

La progresiva exclusión de Alex Jones e Infowars de las plataformas sociales recuerdan a acciones anteriores contra el supremacismo blanco y las páginas neonazis en agosto del pasado 2017, y sigue mereciendo una reflexión. En una web cuya actividad se concentra cada vez más en unas pocas plataformas, la posibilidad de excluir de la conversación determinadas ideas o a determinados grupos se presenta como una posibilidad tentadora e indudablemente real, con todo lo que ello conlleva. En la práctica, las exclusiones a las que compañías como YouTube, Facebook o Apple someten a ese tipo de páginas no son fruto de ningún tipo de resolución judicial, sino en función de las propias reglas de la plataforma: no los ponen fuera de la ley porque obviamente carecen de esa potestad, pero los expulsan porque incumplen sus normas. Por mucho que la Primera Enmienda de la Constitución de los Estados Unidos afirme que no se te puede arrestar por lo que digas o pienses, nada puede obligar a una plataforma a hospedar esas ideas o a proteger a quien las dice. En realidad, si YouTube, Facebook o Apple te cancelan un canal o te cierran una página, no están vulnerando tus derechos constitucionales, sino afirmando que no están cómodos con esas ideas siendo expresadas desde su plataforma y echándote fuera de ella. No es lo mismo prohibir unas ideas que rescindir el permiso para vocearlas desde un sitio determinado, sea una universidad, un recinto determinado o una red social.

En el fondo, hablamos de la  paradoja de la tolerancia enunciada por el filósofo austríaco Karl Popper, que afirma que si una sociedad es tolerante sin límites, su habilidad para ser tolerante será finalmente confiscada o destruida por los intolerantes, lo que implica que defender la tolerancia exija no tolerar lo intolerante: 

La tolerancia ilimitada conduce a la desaparición de la tolerancia. Si extendemos la tolerancia ilimitada incluso a aquellos que son intolerantes, si no estamos preparados para defender a una sociedad tolerante de la embestida de los intolerantes, entonces los tolerantes serán destruidos, y con ellos, la tolerancia. En esta formulación no insinúo, por ejemplo, que siempre debamos reprimir el enunciado de filosofías intolerantes: siempre será preferente contrarrestarlos con argumentos racionales y mantenerlos bajo control por parte de la opinión pública, porque la supresión sería sin duda muy imprudente. Pero deberíamos reclamar el derecho de suprimirlos si es necesario incluso por la fuerza, porque puede ocurrir fácilmente que no estén preparados para discutir en el nivel del argumento racional, sino que comiencen denunciando todos los argumentos: pueden prohibir a sus seguidores escuchar argumentos racionales por considerarlos engañosos, o enseñarles a responder argumentos utilizando sus puños o sus pistolas. Por tanto, deberíamos reclamar, en nombre de la tolerancia, el derecho a no tolerar a los intolerantes. Deberíamos pedir que cualquier movimiento que predique la intolerancia sea situado fuera de la ley, y deberíamos considerar la incitación a la intolerancia y la persecución como criminales, de la misma manera que deberíamos considerar la incitación al asesinato, al secuestro o al resurgimiento de la trata de esclavos como un comportamiento criminal.

Sin duda, llegar al punto de limitar el uso de determinadas plataformas de uso mayoritario en la red para la difusión de unas ideas determinadas es algo peligroso, y más aún cuando esas plataformas se concentran y pasan a estar en manos de unos pocos. Que esas exclusiones se dicten además de manera aparentemente arbitraria, o en base a normas y políticas poco claras e interpretables aporta un problema adicional, y ponen a esas plataformas en la situación de convertirse en jueces, en censores, en dictadores que hacen y deshacen a su antojo, con todas las posibilidades de convertirse en herramientas a favor de determinados intereses. La Electronic Frontier Foundation (EFF), que cuenta con un importante bagaje en términos de reflexión sobre estos temas, cita los Principios de Manila sobre la Responsabilidad de los Intermediarios como una forma de evitar errores y de garantizar la transparencia de estas decisiones.

Sinceramente, tiendo a pensar que los Alex Jones y gente de ese perfil y con esas actitudes están mejor fuera que dentro de internet. Pero también veo que en determinados países no precisamente conocidos por su respeto a las libertades, las ideas que son expulsadas de los foros de discusión son otras, que en algunos casos pueden ser afines a las mías, lo que me hace situarme en la posición de intentar evitar de todas las maneras posibles que esas situaciones puedan parecer similares. A otro nivel obviamente no comparable, en mi página elimino rutinariamente no tanto las ideas que contravienen a las mías, porque valoro la discusión y la capacidad de hacerme cambiar de opinión, sino a aquellos que las expresan de una manera desagradable o a los que deciden situarse en una posición absurda de cruzada contra todas mis ideas, algo que únicamente ha ocurrido tres veces a lo largo de la última década: personas que hacían que no me encontrase cómodo escribiendo en mi propia página. Entiendo perfectamente que una red social, un repositorio de vídeo o una plataforma de podcasts no se encuentre cómoda sirviendo de vehículo para determinadas ideas e incluso que tome la decisión de excluirlas, y en ese caso, creo que lo ideal sería pedirle que expresase de manera muy clara lo que está permitido y lo que no, y que aplique esos principios de manera transparente.

La libertad de expresión es un asunto delicado, y mucho más complejo de lo que parece. A todos nos gustaría excluir a los imbéciles, pero también nos gustaría, en ese caso, llevarnos bien con el que decide quién es un imbécil y quién no lo es. Cuando cerrar la puerta de un puñado de sitios como YouTube, Facebook, iTunes y Twitter supone prácticamente la expulsión de internet, nos arriesgamos a situarnos en la posición de un país como China, en el que el gobierno decide lo que puede estar en la red y lo que no, sin consultar a nadie, sin preguntar a los usuarios y sin preocuparse por posibles errores o excesos de celo, o como otros países en los que la ausencia de una separación de poderes real conlleva que los jueces siempre digan lo que conviene al poder establecido. Francamente, Alex Jones y la decisión de excluirlo no me parece un problema, pero sí me parece una interesante oportunidad para la reflexión.

 

IMAGE: Mary Valery - 123RFMi columna en El Español de esta semana se titula “Problemas de otros tiempos” (pdf), y vuelve al tema tratado hace dos días, la exclusión de los supremacistas blancos y neonazis de la red, en virtud de una serie de medidas acometidas por compañías referentes en ese entorno. Si hace dos días contábamos cómo el panfleto neonazi “The Daily Stormer” era expulsado de su dominio por GoDaddy y, posteriormente, por Google, y se veía obligada a refugiarse en un dominio ruso, dos días más tarde podemos comprobar cómo el dominio ruso ha sido igualmente cancelado, y cómo Cloudflare, un proveedor de servicios de DNS, de protección y de distribución de contenidos fundamental en la red, retiraba asimismo sus servicios a la página neonazi.

Es precisamente el caso de Cloudflare, magistralmente explicado por su CEO, Matthew Prince, en versión corta y de circulación supuestamente interna, o en versión más larga y depurada, el que merece una mayor reflexión. Indudablemente, la página en cuestión tiene ahora muy complicado continuar su actividad en la red: a todos los efectos, ha sido expulsada de la red. Las palabras de Kevin Prince no dejan lugar a la ambigüedad: tras la estupidez recalcitrante de los creadores de la página, que se dedicaron a atribuir que Cloudflare no les hubiese echado a unas supuestas simpatías de la compañía por la ideología neonazi, afirma que 

“I woke up in a bad mood and decided someone shouldn’t be allowed on the Internet. No one should have that power.” 

(Me desperté de mal humor y decidí que la presencia de alguien no debería estar permitida en Internet. Nadie debería tener ese poder.)

En efecto, la reflexión del fundador y CEO de Cloudflare tiene mucho de sentido común: debido a un proceso de concentración empresarial, cada vez son menos las compañías implicadas en que alguien pueda tener voz en la red. Pero por muy repugnante que nos pueda resultar una página o una ideología determinada, los que deciden si tiene cabida o no en la red no deberían ser los responsables de una serie de compañías privadas: esa decisión debería corresponder a un juez, ejercitando el debido proceso penal.

El proceso de exclusión de las ideologías neonazis y supremacistas que estamos viviendo en los últimos días no se limita a una sola página. Si de alguna manera simpatizas con esa ideología, verás cómo los grupos que interpretan música con esa tendencia desaparecen de Spotify, los enlaces a ese tipo de contenidos no tienen cabida en Facebook, no puedes hablar del tema en foros de Reddit ni en algunas plataformas de mensajería instantánea, no puedes escribir en WordPress, las campañas de recaudación de fondos para esa temática no son permitidas en ninguna plataforma de crowdfunding ni tienen acceso a medios de pago como Apple Pay o PayPal, e incluso se impide tu acceso a herramientas para buscar pareja como OKCupid.

De acuerdo: las ideologías supremacistas, neonazis y que promueven el odio o la discriminación son AS-QUE-RO-SAS, y además, absurdas. Son tan propias de otros tiempos como el yihadismo, que corresponde en realidad a una idea de cruzada religiosa propia de hace cinco o diez siglos, pero que aún provoca barbaridades incomprensibles como la de anoche en Barcelona. Totalmente de acuerdo: las ideologías que proclaman que una raza es superior a otra, que una religión debe eliminar a los infieles o que un sexo está más preparado que otro deberían ser declaradas absolutamente inaceptables, parte de problemas del pasado basados en la ignorancia más supina y más absurda, una discusión completamente superada. Algunos imbéciles devenidos en presidentes pueden, desgraciadamente, hacer que los problemas de hace décadas vuelvan a resucitar y se conviertan de nuevo en parte del escenario, como si se tratase de ideologías en discusión, cuando la realidad es que hace muchos años que fueron adecuadamente excluidas del panorama político. Pero independientemente de que nos manifestemos públicamente en contra de esas ideologías caducas, las medidas de exclusión deberían provenir no de decisiones individuales de compañías privadas, sino de un juez. En muchos países de la Europa central hace décadas que determinados contenidos están radicalmente prohibidos, y eso responde a un consenso social fruto, en gran medida, de experiencias vividas anteriormente. En otros países, como los Estados Unidos, se asegura que el gobierno nunca podrá censurar tu libertad de pensamiento, de expresión o de publicación, pero no impiden que sea una compañía privada o actores de otro tipo los que eliminen, de facto, la posibilidad de alguien de expresarse en un medio determinado.

Tomemos la decisión con una idea de absoluta tolerancia al pensamiento – que no a los hechos – o con la conocida paradoja de la tolerancia bien presente, deberíamos tener en cuenta que hablamos de los elementos que van a constituir la sociedad en la que viviremos en el futuro, en la que vivirán nuestros hijos. ¿Deberíamos aspirar a impedir, prohibir o eliminar de la sociedad toda aquella ideología que de alguna manera no aceptase determinadas reglas? ¿Qué hacer, por ejemplo, en un caso como el de AfD en Alemania, que no se definen como abiertamente neonazis o supremacistas para evitar un conflicto legal, pero abiertamente defienden en sus propuestas este tipo de ideologías sin llamarlas por su nombre? Que una ideología provenga de movimientos supuestamente desechados hace diez siglos años o hace quince décadas no implica que no haya imbéciles capaces de hacer que vuelvan a resurgir, como estamos desgraciadamente comprobando. Habra que tomar decisiones sobre el lugar que esas ideologías caducas pueden o deben tener en la sociedad y en la red.

 

IMAGE: Łukasz Stefański - 123RFTras los trágicos eventos de Charlottesville, la actitud de algunas compañías en el entorno de la tecnología con respecto a la tolerancia frente al discurso del odio parece estar empezando a cambiar. En un breve espacio de tiempo, el registrador de dominios GoDaddy ha rescindido el registro de la página neo-nazi “The Daily Stormer“, que de manera inmediata la ha desplazado a Google Sites, para encontrarse con una nueva negativa de Google a hospedarla alegando la violación de sus términos de servicio, y con la cancelación del nuevo dominio. Tras esa segunda expulsión, la página ha decidido trasladar su domino a la dark web, con la promesa de volver más adelante.

Al tiempo, Facebook ha decidido eliminar todos los enlaces a un artículo publicado en la misma página en el que insultaban a la víctima del atropello de Charlottesville, Reddit ha cerrado foros en los que se hacía apología del odio y del nazismo, el sistema de mensajería instantánea para gamers Discord, aparentemente muy utilizado por este tipo de comunidades radicales, ha cerrado servidores y expulsado a usuarios que lo utilizaban para conversaciones para promover la ideología nazi, y sitios de crowdfunding como GoFundMe o Kickstarter han cancelado campañas que pretendían recoger fondos para la defensa del autor del brutal atropello.

Las acciones de las compañías tecnológicas sugieren un importante cambio de actitud frente al discurso del odio y las ideologías radicales, con la aparente idea de eliminar este tipo de contenidos de las redes. Frente a este discurso, encontramos la actitud de plataformas como la American Civil Liberties Union (ACLU), que al tiempo que condenaba las demostraciones y la violencia de los supremacistas blancos en Charlottesville, dejaba claro también en un tweet y en una carta abierta el derecho de los radicales a manifestarse en virtud de la Primera Enmienda de la Constitución, en una actitud que llevó a la asociación a recibir fuertes críticas y acusaciones de ambivalencia.

La actitud de la ACLU, de Foreign Policy o de páginas como Techdirt, que afirman la necesidad de proteger la libertad de expresión incluso aunque lo que esté siendo expresado nos repugne, hacen referencia a los problemas que puede traer una actitud maximalista y de intento de eliminación del discurso del odio: en primer lugar, que esa eliminación conlleva que ese discurso pase a tener lugar en foros ocultos o más discretos como la dark web, y se radicalice más aún mientras una parte de la sociedad piensa falsamente que ha sido eliminado. Y en segundo, que la arbitrariedad al designar qué discursos deben ser excluidos termine generando ambigüedades o situaciones en las que lamentemos haber concedido esas “excepciones” a la Primera Enmienda, dando lugar a problemas más importantes que los que se pretendía originalmente resolver. Una posición de este tipo viene a solicitar que se refuercen los mecanismos con los que la sociedad ya cuenta para impedir las acciones de los radicales, pero sin impedir su libertad de expresión, marcando una separación entre discurso y acciones.

En otro plano se sitúa la idea de que, aunque exista libertad de expresión y una persona pueda decir lo que quiera aunque resulte molesto en virtud de la Primera Enmienda constitucional, eso no implica que lo que diga no vaya a tener consecuencias, y esa persona, por haber dicho algo posiblemente repugnante o que genere animadversión, no vaya a sufrir consecuencias como, por ejemplo, perder su trabajo, ser expulsado de una universidad o ser objeto de otro tipo de represalias, como discutíamos hace pocos días o como magistralmente plasma XKCD en una de sus viñetas.

Frente a estas actitudes que claman por defender el ejercicio de la libertad de expresión a toda costa, surgen otras actitudes que invocan al filósofo Karl Popper y su paradoja de la tolerancia, que afirma que si una sociedad es tolerante sin límites, su habilidad para ser tolerante será finalmente confiscada o destruida por los intolerantes, lo que implica que defender la tolerancia exija no tolerar lo intolerante.

¿Debe toda expresión estar permitida en la sociedad o en la red? Después de todo, un numero creciente de gobiernos persiguen y cierran los foros en la red del yihadismo radical por su carácter de exaltación del odio religioso, y pocos son los que se escandalizan por ello. ¿Qué tienen los neonazis o los supremacistas blancos que no tenga el yihadismo radical, aparte -desgraciadamente – de más simpatizantes en algunas sociedades occidentales? Décadas de prohibición de actitudes y memorabilia nazi en algunos países europeos no parecen haber conseguido gran cosa a la hora de hacer desaparecer ese tipo de ideologías. ¿Aciertan las compañías tecnológicas pasando a una actitud más beligerante de exclusión del discurso del odio? ¿Pueden unos simples términos de servicio competir con la Primera Enmienda? ¿Se trata de una respuesta, posiblemente peligrosa, a la falsa equidistancia y al discurso de “ellos contra nosotros” del presidente Trump? ¿Deben ponerse límites a la libertad de expresión en la red?

 

IMAGE: Karen Roach - 123RF

Según Twitter, apoyándose en datos generados internamente, sus esfuerzos para combatir el acoso y el abuso en su red están finalmente dando sus frutos.

Las declaraciones de la compañía contrastan con las de un buen número de usuarios que afirman, con capturas y ejemplos de tweets que incurren en este tipo de conductas, que la compañía salda de forma sistemática un número significativamente elevado de reclamaciones con afirmaciones de que “no viola las reglas de la compañía”.

El asunto en discusión es tan sencillo como la definición de acoso o abuso en un contexto social. Según Twitter, algo es acoso no cuando el afectado lo denuncia, sino cuando alguien, dentro de Twitter, lo examina, lo juzga, y emite su veredicto. Según Twitter, ellos son los jueces inapelables de lo que constituye acoso o abuso en su red, y la opinión de los denunciantes de tales conductas no cuenta en absoluto. Visto así, ese tipo de contestaciones, que hace algunos años tuve la ocasión de recibir yo mismo, son un recurso sencillo y barato para la compañía, que puede decidir qué comportamientos son constitutivos de acoso y abuso y cuáles no, y reportar las cifras que le vengan en gana sobre la reducción de esos comportamientos en su red.

El problema de erigirse en juez inapelable sobre lo que es acoso o abuso es que, en realidad, eso no es lícito en absoluto. En un contexto social, la única persona que puede juzgar si un comportamiento constituye acoso o abuso es el afectado. Si un afectado afirma estar siendo objeto de acoso o abuso, ese acoso o ese abuso automáticamente deben pasar a existir. El acoso o el abuso son problemas esencialmente subjetivos: alguien puede acosar a otra persona simplemente insistiendo en un tema determinado, aunque lo haga con unos modales perfectos. Los límites de ese acoso o abuso, en ese sentido, podrían llegar a marcarse en función de las características de la víctima: los personajes públicos, por su visibilidad, podrían estar en cierto sentido obligados a aceptar determinados niveles de acoso o abuso, o en particular aquellos que fuesen relevantes con respecto a las razones por las que poseen esa visibilidad. Así, preguntar insistentemente a un político por un caso de corrupción difícilmente podría ser conceptualizado como acoso, pero hacer lo mismo con un ciudadano anónimo con respecto a una factura supuestamente impagada sí podría serlo. La clave, desde mi punto de vista, está en la dimensión social.

Otro elemento evidente estaría, muy posiblemente, en la fuerza empleada: no es lo mismo que alguien insulte a otra persona desde una cuenta con pocos seguidores, posiblemente anónima y carente de credibilidad alguna, que el que ese insulto sea dirigido desde una cuenta con una trascendencia elevada, con un gran número de seguidores o con una visibilidad relevante. La dimensión social añade a cuestiones como el acoso o el abuso una serie de variables que es preciso tener en cuenta a la hora de emitir una opinión sobre su naturaleza.

Pero el principal problema, desde mi punto de vista, estriba en la naturaleza de la cuestión: un comportamiento no es constitutivo de acoso o abuso “porque lo diga Twitter”, sino porque lo diga el afectado. ¿Podría esta política de tolerancia cero ser utilizada por algunas personas para suprimir determinadas actitudes que, en términos estrictamente judiciales, podrían ser considerados lícitos? Posiblemente, pero es que precisamente en eso está la cuestión: la conversación en un contexto social no puede judicializarse, no puede convertirse en un estrado sin juez ni leyes establecidas, y mucho menos puede ser Twitter, parte interesada, quien pretenda erigirse en juez. En un lado está el contexto social, con sus propias reglas marcadas, fundamentalmente, por las normas de la buena educación y otros consensos sociales generalmente aceptados , y en otro lado completamente separado están los tribunales que juzgan delitos como la injuria, el acoso o la difamación. Son niveles diferentes, y Twitter nunca debería, desde mi punto de vista, entrar en el juego de considerarse juez. Lo que Twitter tendría que hacer, de nuevo desde mi punto de vista estrictamente personal, es tomar todas las reclamaciones de acoso o abuso y procesarlas debidamente con arreglo a una serie de protocolos, que pueden incluir desde el borrado del tweet y la advertencia al infractor, hasta la eliminación de la cuenta y la adopción de medidas de exclusión. La única manera de mantener una red social libre de elementos nocivos como el acoso o el abuso es con una política de tolerancia cero.

Mientras esa política de tolerancia cero, mientras el objeto de acoso o abuso no sea quien determine si un comportamiento lo es o no lo es, los datos que Twitter ofrezca sobre los resultados de sus acciones en ese sentido carecerán de toda credibilidad. Pero una vez más: hablamos de un asunto sensible, en el que mi sensibilidad además se acrecienta por haberlo sufrido personalmente, y en el que, obviamente, puede haber opiniones en otros sentidos.