IMAGE: Jon Phillips - CC BYLa secuencia de acontecimientos que ha terminado prácticamente con el exilio de Alex Jones y su página, InfoWars, de la práctica totalidad de los canales de difusión en la web es, a falta de culminarse con la más que probable expulsión de su app de la Play Store de Android, un momento interesante para plantear algunas reflexiones sobre la estructura de la red en la que, desde hace ya tiempo, basamos una parte creciente de nuestra actividad.

El pasado 24 de julio, YouTube eliminó cuatro vídeos publicados por InfoWars por considerar que infringían sus políticas de uso, suspendió su capacidad para emitir contenido en vivo, y dio su primera advertencia o strike al canal. Tras esa primera acción, el número de plataformas que tomaron acción contra Alex Jones y sus contenidos no ha dejado de crecer, al tiempo que lo ha hecho también la severidad de las medidas al pasar de advertencias y bloqueos temporales, a cierres definitivos. El 27 de julio, Facebook suspendió el perfil de Alex Jones durante 30 días, y eliminó los mismos videos que YouTube. El 5 de agosto, Apple eliminó cinco podcasts de Infowars, y también lo hizo Spotify. Un día después, el 6 de agosto, las medidas de Facebook se hicieron definitivas al eliminar cuatro páginas relacionadas con Alex Jones por apología de la violencia y del discurso del odio. Ese mismo día, YouTube eliminó completamente el canal de InfoWars. Además, Mailchimp expulsó también a Alex Jones por hateful conduct, lo que le obligo a buscar otro servicio para enviar sus newslettersAmazon eliminó las recomendaciones a su línea de supuestos “productos de supervivencia” que le proporcionaban una fuente de ingresos. Twitter, que inicialmente había rechazado tomar acción alguna, suspendió sus cuentas durante dos semanas tras una intensa presión mediática destinada a probar violaciones del código de conducta de la compañía y, finalmente, eliminó las cuentas de Alex Jones e InfoWars tras la retransmisión vía Periscope de un encuentro con un periodista y anunció que trataría de cerrar todas las cuentas nuevas que pudiese intentar abrir. Para rematar, el pasado día 8, Apple excluyó a la app de InfoWars de su App Store, que había crecido rápidamente en seguimiento y se había convertido en uno de los pocos canales que le quedaban para comunicarse con sus seguidores. 

Contrariamente a lo que el propio Jones y muchos aparentemente pensaban, toda esta oleada de medidas no han servido para hacerle más popular, sino todo lo contrario: su alcance se ha visto seriamente disminuido, y su potencial para esparcir conspiranoias y odio se ha reducido. En este momento, Jones puede recurrir al alcance orgánico de su página web y a su app para Android, que también podría pronto unirse a las medidas tomadas por otros canales y dejar a los seguidores de Jones ante la tesitura de instalarse la app sin pasar por el Play Market. La situación recuerda mucho lo sucedido con el panfleto neonazi The Daily Stormer en agosto de 2017, cuando fue primero expulsado de su dominio por GoDaddy, posteriormente, por Google y, tras tratar de refugiarse en un dominio ruso que fue ha igualmente cancelado pocos días después, vio cómo Cloudflare, el proveedor de servicios de DNS, de protección y de distribución de contenidos más importante de la red, le retiraba asimismo sus servicios.

Sin ánimo de plantear aquí una discusión sobre el tipo de contenidos que deben ser excluidos de la web o sobre la conveniencia de respetar la libertad de expresión de tipos tan intolerantes y tan poco recomendables como Alex Jones o publicaciones como The Daily Stormer, la pregunta es clara: ¿cuántas personas u organizaciones tienen que ponerse de acuerdo para lograr prácticamente excluir a una persona de un ámbito como la web? Realmente, si Larry Page, Mark Zuckerberg, Tim Cook y unos pocos más se ponen de acuerdo, la condena al ostracismo puede convertirse en verdaderamente eficiente. La situación recuerda a lo que ocurre en países como China, en los que una sola decisión basta para convertir un sitio en inaccesible, y se aleja de las concepciones originales de descentralización y ausencia de censura que tenía internet en sus orígenes.

En este sentido, me han parecido muy interesantes las reflexiones del Decentralized Web Summit celebrado en San Francisco entre el 31 de julio y el 2 de agosto con la asistencia, entre otros, de Tim Berners-Lee. Los defensores de la llamada web descentralizada o DWeb proponen construir una web mejor basada en la descentralización, en la que los usuarios puedan comunicarse sin tener que depender de grandes empresas que acumulen sus datos con ánimo de lucro y faciliten, además, las acciones de vigilancia y censura de los gobiernos o de otros agentes. La diferencia estaría en el desarrollo de un protocolo diferente basado en la conectividad punto a punto, en donde cada ordenador no solo solicita servicios, sino que también los proporciona, protocolos que identificarían los contenidos no en función de dónde están, sino de lo que son. Esa orientación al contenido sería similar a los esquemas P2P, y haría posible que los sitios web y los archivos se almacenasen y pasasen de muchas formas de ordenador en ordenador, en lugar de confiar siempre en un solo servidor como el conducto para el intercambio de información.

Una alternativa de este tipo nos volvería a acercar a la idea de una web imposible o mucho más difícil de censurar, gracias a la idea de un control completamente distribuido. El problema, claro está, es que esa misma cualidad tiene aspectos buenos, pero también potencialmente malos, derivados de la dificultad de generar sistemas de gobernanza. Sabiendo como sabemos que la web puede ser explotada y sometida a abuso para fines que van desde la subversión de la democracia hasta la exaltación del odio o de la intolerancia, ¿es conveniente descentralizar para acabar teniendo una estructura que impide prácticamente todo control? El idealismo de los primeros años de la web ha dado paso a un escepticismo que plantea hasta qué punto es conveniente crear estructuras que, en principio, renuncien a todo control, y permitan la expresión sin límites del ser humano, con lo mejor, pero también indudablemente con lo peor que puede llegar a crear.

Técnicamente, es muy posible que una web completamente descentralizada y distribuida pueda llegar a convertirse en realidad, y de hecho, ya hay bastantes aplicaciones y desarrolladores trabajando en ello. Es muy posible que, como ocurre habitualmente con la tecnología, la discusión sobre su idoneidad sea estéril, porque dados los condicionantes adecuados, no sea posible impedir que sea creada. Pero desde un punto de vista filosófico, conociendo las consecuencias de lo que hemos visto surgir en varias décadas de uso de la web… ¿es recomendable? ¿Cómo están evolucionando las ideas libertarias que surgieron tras el inicio de la popularización de la web, ante la aparición de malos actores dispuestos a explotar precisamente su ausencia de control?

 

IMAGE: Alex Jones, by Sean P. Anderson - CC BYAlex Jones es, sin duda, la definición enciclopédica de una persona perversa, que causa daño intencionadamente, o que corrompe las costumbres o el orden y estado habitual de las cosas para su propio beneficio. Una de esas personas a las que seguramente te pensarías mucho invitar a su casa, aunque afuera estuviese cayendo el diluvio universal, simplemente para evitar que alguien te viese con él.

Sus ideas ultraconservadoras y su capacidad para la invención constante de noticias falsas y absurdas teorías de la conspiración le han llevado en numerosas ocasiones a lo que cualquier persona mínimamente normal consideraría esperpento: si piensas en cualquier teoría suficientemente estúpida, como las que soportan el movimiento antivacunas, la falsedad de la llegada a la luna, las armas climatológicas, el genocidio blanco o la participación gubernamental en todo tipo de atentados o tiroteos, este tipo las tiene todas, como si las coleccionase, y las utiliza sin ningún tipo de problema para decir barbaridades como que los padres de los pobres niños muertos en la masacre de Sandy Hook son en realidad actores pagados por el gobierno en un suceso que, según él, fue totalmente inventado y nunca existió. A pesar de todo ello, o posiblemente gracias a ello, su página, InfoWars, tiene más de diez millones de visitas mensuales, lo que la convierte en uno de los bastiones de este tipo de absurdas corrientes de pensamiento.

Desde el pasado 24 de julio, las acciones contra Alex Jones e Infowars en las distintas redes sociales se han sucedido de manera constante: ese día, YouTube eliminó cuatro vídeos publicados por InfoWars, suspendió su capacidad para la emisión en vivo, y dio su primera advertencia al canal. El 27 de julio, Facebook suspendió el perfil de Alex Jones durante 30 días, y eliminó los mismos videos que YouTube, citando violaciones de las normas de Facebook contra el discurso de odio y la intimidación. El pasado 5 de agosto, Apple también eliminó cinco podcasts de Infowars de su aplicación. Un día después, el 6 de agosto, Facebook eliminó cuatro páginas relacionadas con Alex Jones por violaciones de su política de apología de la violencia y el discurso del odio. Ese mismo día, YouTube eliminó completamente el canal de InfoWars. Una sucesión de acciones que han servido para que el propio Jones denuncie una persecución a través de la que es prácticamente la única plataforma social que le queda en este momento, Twitter.

La progresiva exclusión de Alex Jones e Infowars de las plataformas sociales recuerdan a acciones anteriores contra el supremacismo blanco y las páginas neonazis en agosto del pasado 2017, y sigue mereciendo una reflexión. En una web cuya actividad se concentra cada vez más en unas pocas plataformas, la posibilidad de excluir de la conversación determinadas ideas o a determinados grupos se presenta como una posibilidad tentadora e indudablemente real, con todo lo que ello conlleva. En la práctica, las exclusiones a las que compañías como YouTube, Facebook o Apple someten a ese tipo de páginas no son fruto de ningún tipo de resolución judicial, sino en función de las propias reglas de la plataforma: no los ponen fuera de la ley porque obviamente carecen de esa potestad, pero los expulsan porque incumplen sus normas. Por mucho que la Primera Enmienda de la Constitución de los Estados Unidos afirme que no se te puede arrestar por lo que digas o pienses, nada puede obligar a una plataforma a hospedar esas ideas o a proteger a quien las dice. En realidad, si YouTube, Facebook o Apple te cancelan un canal o te cierran una página, no están vulnerando tus derechos constitucionales, sino afirmando que no están cómodos con esas ideas siendo expresadas desde su plataforma y echándote fuera de ella. No es lo mismo prohibir unas ideas que rescindir el permiso para vocearlas desde un sitio determinado, sea una universidad, un recinto determinado o una red social.

En el fondo, hablamos de la  paradoja de la tolerancia enunciada por el filósofo austríaco Karl Popper, que afirma que si una sociedad es tolerante sin límites, su habilidad para ser tolerante será finalmente confiscada o destruida por los intolerantes, lo que implica que defender la tolerancia exija no tolerar lo intolerante: 

La tolerancia ilimitada conduce a la desaparición de la tolerancia. Si extendemos la tolerancia ilimitada incluso a aquellos que son intolerantes, si no estamos preparados para defender a una sociedad tolerante de la embestida de los intolerantes, entonces los tolerantes serán destruidos, y con ellos, la tolerancia. En esta formulación no insinúo, por ejemplo, que siempre debamos reprimir el enunciado de filosofías intolerantes: siempre será preferente contrarrestarlos con argumentos racionales y mantenerlos bajo control por parte de la opinión pública, porque la supresión sería sin duda muy imprudente. Pero deberíamos reclamar el derecho de suprimirlos si es necesario incluso por la fuerza, porque puede ocurrir fácilmente que no estén preparados para discutir en el nivel del argumento racional, sino que comiencen denunciando todos los argumentos: pueden prohibir a sus seguidores escuchar argumentos racionales por considerarlos engañosos, o enseñarles a responder argumentos utilizando sus puños o sus pistolas. Por tanto, deberíamos reclamar, en nombre de la tolerancia, el derecho a no tolerar a los intolerantes. Deberíamos pedir que cualquier movimiento que predique la intolerancia sea situado fuera de la ley, y deberíamos considerar la incitación a la intolerancia y la persecución como criminales, de la misma manera que deberíamos considerar la incitación al asesinato, al secuestro o al resurgimiento de la trata de esclavos como un comportamiento criminal.

Sin duda, llegar al punto de limitar el uso de determinadas plataformas de uso mayoritario en la red para la difusión de unas ideas determinadas es algo peligroso, y más aún cuando esas plataformas se concentran y pasan a estar en manos de unos pocos. Que esas exclusiones se dicten además de manera aparentemente arbitraria, o en base a normas y políticas poco claras e interpretables aporta un problema adicional, y ponen a esas plataformas en la situación de convertirse en jueces, en censores, en dictadores que hacen y deshacen a su antojo, con todas las posibilidades de convertirse en herramientas a favor de determinados intereses. La Electronic Frontier Foundation (EFF), que cuenta con un importante bagaje en términos de reflexión sobre estos temas, cita los Principios de Manila sobre la Responsabilidad de los Intermediarios como una forma de evitar errores y de garantizar la transparencia de estas decisiones.

Sinceramente, tiendo a pensar que los Alex Jones y gente de ese perfil y con esas actitudes están mejor fuera que dentro de internet. Pero también veo que en determinados países no precisamente conocidos por su respeto a las libertades, las ideas que son expulsadas de los foros de discusión son otras, que en algunos casos pueden ser afines a las mías, lo que me hace situarme en la posición de intentar evitar de todas las maneras posibles que esas situaciones puedan parecer similares. A otro nivel obviamente no comparable, en mi página elimino rutinariamente no tanto las ideas que contravienen a las mías, porque valoro la discusión y la capacidad de hacerme cambiar de opinión, sino a aquellos que las expresan de una manera desagradable o a los que deciden situarse en una posición absurda de cruzada contra todas mis ideas, algo que únicamente ha ocurrido tres veces a lo largo de la última década: personas que hacían que no me encontrase cómodo escribiendo en mi propia página. Entiendo perfectamente que una red social, un repositorio de vídeo o una plataforma de podcasts no se encuentre cómoda sirviendo de vehículo para determinadas ideas e incluso que tome la decisión de excluirlas, y en ese caso, creo que lo ideal sería pedirle que expresase de manera muy clara lo que está permitido y lo que no, y que aplique esos principios de manera transparente.

La libertad de expresión es un asunto delicado, y mucho más complejo de lo que parece. A todos nos gustaría excluir a los imbéciles, pero también nos gustaría, en ese caso, llevarnos bien con el que decide quién es un imbécil y quién no lo es. Cuando cerrar la puerta de un puñado de sitios como YouTube, Facebook, iTunes y Twitter supone prácticamente la expulsión de internet, nos arriesgamos a situarnos en la posición de un país como China, en el que el gobierno decide lo que puede estar en la red y lo que no, sin consultar a nadie, sin preguntar a los usuarios y sin preocuparse por posibles errores o excesos de celo, o como otros países en los que la ausencia de una separación de poderes real conlleva que los jueces siempre digan lo que conviene al poder establecido. Francamente, Alex Jones y la decisión de excluirlo no me parece un problema, pero sí me parece una interesante oportunidad para la reflexión.

 

Facebook account disabledMi columna en El Español de esta semana se titula “Problemas sin precedentes” (pdf), e intenta hacer algo de didáctica acerca del impresionante reto tecnológico que supone para una compañía como Facebook gestionar una red con más de dos mil millones de personas, un tercio de la población mundial, que pasan en sus páginas una media de cincuenta minutos cada día consumiendo y creando todo tipo de contenido, y cuyas acciones es preciso controlar para evitar determinados comportamientos considerados nocivos.

Una entrevista con el director de seguridad de la compañía, Alex Stamos, revela que la red social elimina cada día una media de un millón de cuentas por infringir sus políticas de uso, por motivos con motivación económica como spam, fraudes o estafas, pero también por razones relacionadas con la exaltación del odio, la incitación a la violencia, las amenazas, el acoso, etc.

Eliminar un millón de cuentas al día implica, lógicamente, tener que revisar muchísimas cuentas más, con una combinación de herramientas algorítmicas y manuales que supone un reto tecnológico para el que no existen precedentes. Cuando leemos que Facebook se plantea fichar a miles de personas para supervisar contenido, podemos intentar hacernos una idea de la magnitud de la tarea y de lo que supone, teniendo en cuenta que la supervisión manual no es más que una parte de la solución. De hecho, el principal problema no es ya establecer una determinada política o criterio de seguridad, sino diseñar los retos técnicos que supone la supervisión de la misma. Imaginemos lo que supone patrullar una red en la que, cada día, un millón de cuentas son deshabilitadas por todo tipo de motivos: obviamente, se cometen errores tanto de tipo 1, o falsos positivos, como de tipo 2, o falsos negativos, que la compañía intenta lógicamente reducir en la medida de lo posible. Cada vez que la compañía identifica como violenta y elimina una cuenta que juraba venganza contra un mosquito, por ejemplo, se arriesga a situaciones que van desde la simple burla al escándalo o a las acusaciones de censura injustificada, y a tener que invertir valiosas horas en supervisión manual y revisión de casos individuales.

Mientras la compañía, como otras empresas con problemas similares como Google o Twitter, intenta avanzar en la resolución de este tipo de cuestiones, resulta que llegan una serie de políticos en Alemania que, en su supina ignorancia, no llegan ni remotamente a hacerse a la idea de lo que supone una tarea como esta, y deciden que como en las redes sociales hay en ocasiones mensajes de exaltación al odio, hay que hacer algo rápidamente. Y por supuesto, sus soluciones son, simplemente, “soluciones de político”: deciden convertir el hecho en delito penal e imponer una multa impresionante, 50,000 euros, a las redes sociales que no eliminen esos mensajes con la debida prontitud. La medida es una prueba clara de cuánto de profunda puede llegar a ser la ineptitud y la ignorancia de los políticos: como las redes sociales, debido a una escala y nivel de adopción sin precedentes en la historia, están teniendo algunos episodios aislados de divulgación del discurso del odio, vienen los políticos de turno y deciden que se les impongan multas. Y todavía creerán que han resuelto el problema.

¿Qué efecto genera una ley tan estúpida como esa, promulgada por absolutos ignorantes tecnológicos incapaces de imaginar lo que implica la tarea que tan alegremente demandan? Que Facebook ahora pasa de tener un problema que conllevaba el ridículo público, a tener otro que conlleva responsabilidades penales y enormes multas. En consecuencia, la compañía se ve obligada a escalar rápidamente sus esfuerzos en la supervisión de cuentas, a cerrar más cuentas, y a que los errores, lógicamente, se incrementen en consecuencia. Para arreglar un problema que se solucionaba simplemente dando tiempo a las compañías a que desarrollasen mejores sistemas y a que ideasen otros protocolos, se genera otro problema mayor: que ahora haya más cuentas que son cerradas incorrectamente por cuestiones como sátira, humor, ironía o simplemente exposición lícita de posturas políticas en las que se mencionan determinadas palabras.

En realidad, los mensajes de odio en las redes sociales son cada vez más un problema menos importante, porque la mejora progresiva de los sistemas de denuncia colectiva tienden a hacer que esas cuentas sean eliminadas de manera razonablemente rápida. El exceso de celo de los políticos de turno, en realidad, no era necesario. Pero ahora, a cambio, tendremos redes que censuran más, de manera más habitual y con más errores. Todo un gran logro: gracias por protegernos tanto.

Líbrenos dios de políticos ignorantes con buenas intenciones, que de los que las tienen malas ya procuraré librarme yo…

 

IMAGE: Mary Valery - 123RFMi columna en El Español de esta semana se titula “Problemas de otros tiempos” (pdf), y vuelve al tema tratado hace dos días, la exclusión de los supremacistas blancos y neonazis de la red, en virtud de una serie de medidas acometidas por compañías referentes en ese entorno. Si hace dos días contábamos cómo el panfleto neonazi “The Daily Stormer” era expulsado de su dominio por GoDaddy y, posteriormente, por Google, y se veía obligada a refugiarse en un dominio ruso, dos días más tarde podemos comprobar cómo el dominio ruso ha sido igualmente cancelado, y cómo Cloudflare, un proveedor de servicios de DNS, de protección y de distribución de contenidos fundamental en la red, retiraba asimismo sus servicios a la página neonazi.

Es precisamente el caso de Cloudflare, magistralmente explicado por su CEO, Matthew Prince, en versión corta y de circulación supuestamente interna, o en versión más larga y depurada, el que merece una mayor reflexión. Indudablemente, la página en cuestión tiene ahora muy complicado continuar su actividad en la red: a todos los efectos, ha sido expulsada de la red. Las palabras de Kevin Prince no dejan lugar a la ambigüedad: tras la estupidez recalcitrante de los creadores de la página, que se dedicaron a atribuir que Cloudflare no les hubiese echado a unas supuestas simpatías de la compañía por la ideología neonazi, afirma que 

“I woke up in a bad mood and decided someone shouldn’t be allowed on the Internet. No one should have that power.” 

(Me desperté de mal humor y decidí que la presencia de alguien no debería estar permitida en Internet. Nadie debería tener ese poder.)

En efecto, la reflexión del fundador y CEO de Cloudflare tiene mucho de sentido común: debido a un proceso de concentración empresarial, cada vez son menos las compañías implicadas en que alguien pueda tener voz en la red. Pero por muy repugnante que nos pueda resultar una página o una ideología determinada, los que deciden si tiene cabida o no en la red no deberían ser los responsables de una serie de compañías privadas: esa decisión debería corresponder a un juez, ejercitando el debido proceso penal.

El proceso de exclusión de las ideologías neonazis y supremacistas que estamos viviendo en los últimos días no se limita a una sola página. Si de alguna manera simpatizas con esa ideología, verás cómo los grupos que interpretan música con esa tendencia desaparecen de Spotify, los enlaces a ese tipo de contenidos no tienen cabida en Facebook, no puedes hablar del tema en foros de Reddit ni en algunas plataformas de mensajería instantánea, no puedes escribir en WordPress, las campañas de recaudación de fondos para esa temática no son permitidas en ninguna plataforma de crowdfunding ni tienen acceso a medios de pago como Apple Pay o PayPal, e incluso se impide tu acceso a herramientas para buscar pareja como OKCupid.

De acuerdo: las ideologías supremacistas, neonazis y que promueven el odio o la discriminación son AS-QUE-RO-SAS, y además, absurdas. Son tan propias de otros tiempos como el yihadismo, que corresponde en realidad a una idea de cruzada religiosa propia de hace cinco o diez siglos, pero que aún provoca barbaridades incomprensibles como la de anoche en Barcelona. Totalmente de acuerdo: las ideologías que proclaman que una raza es superior a otra, que una religión debe eliminar a los infieles o que un sexo está más preparado que otro deberían ser declaradas absolutamente inaceptables, parte de problemas del pasado basados en la ignorancia más supina y más absurda, una discusión completamente superada. Algunos imbéciles devenidos en presidentes pueden, desgraciadamente, hacer que los problemas de hace décadas vuelvan a resucitar y se conviertan de nuevo en parte del escenario, como si se tratase de ideologías en discusión, cuando la realidad es que hace muchos años que fueron adecuadamente excluidas del panorama político. Pero independientemente de que nos manifestemos públicamente en contra de esas ideologías caducas, las medidas de exclusión deberían provenir no de decisiones individuales de compañías privadas, sino de un juez. En muchos países de la Europa central hace décadas que determinados contenidos están radicalmente prohibidos, y eso responde a un consenso social fruto, en gran medida, de experiencias vividas anteriormente. En otros países, como los Estados Unidos, se asegura que el gobierno nunca podrá censurar tu libertad de pensamiento, de expresión o de publicación, pero no impiden que sea una compañía privada o actores de otro tipo los que eliminen, de facto, la posibilidad de alguien de expresarse en un medio determinado.

Tomemos la decisión con una idea de absoluta tolerancia al pensamiento – que no a los hechos – o con la conocida paradoja de la tolerancia bien presente, deberíamos tener en cuenta que hablamos de los elementos que van a constituir la sociedad en la que viviremos en el futuro, en la que vivirán nuestros hijos. ¿Deberíamos aspirar a impedir, prohibir o eliminar de la sociedad toda aquella ideología que de alguna manera no aceptase determinadas reglas? ¿Qué hacer, por ejemplo, en un caso como el de AfD en Alemania, que no se definen como abiertamente neonazis o supremacistas para evitar un conflicto legal, pero abiertamente defienden en sus propuestas este tipo de ideologías sin llamarlas por su nombre? Que una ideología provenga de movimientos supuestamente desechados hace diez siglos años o hace quince décadas no implica que no haya imbéciles capaces de hacer que vuelvan a resurgir, como estamos desgraciadamente comprobando. Habra que tomar decisiones sobre el lugar que esas ideologías caducas pueden o deben tener en la sociedad y en la red.

 

IMAGE: Łukasz Stefański - 123RFTras los trágicos eventos de Charlottesville, la actitud de algunas compañías en el entorno de la tecnología con respecto a la tolerancia frente al discurso del odio parece estar empezando a cambiar. En un breve espacio de tiempo, el registrador de dominios GoDaddy ha rescindido el registro de la página neo-nazi “The Daily Stormer“, que de manera inmediata la ha desplazado a Google Sites, para encontrarse con una nueva negativa de Google a hospedarla alegando la violación de sus términos de servicio, y con la cancelación del nuevo dominio. Tras esa segunda expulsión, la página ha decidido trasladar su domino a la dark web, con la promesa de volver más adelante.

Al tiempo, Facebook ha decidido eliminar todos los enlaces a un artículo publicado en la misma página en el que insultaban a la víctima del atropello de Charlottesville, Reddit ha cerrado foros en los que se hacía apología del odio y del nazismo, el sistema de mensajería instantánea para gamers Discord, aparentemente muy utilizado por este tipo de comunidades radicales, ha cerrado servidores y expulsado a usuarios que lo utilizaban para conversaciones para promover la ideología nazi, y sitios de crowdfunding como GoFundMe o Kickstarter han cancelado campañas que pretendían recoger fondos para la defensa del autor del brutal atropello.

Las acciones de las compañías tecnológicas sugieren un importante cambio de actitud frente al discurso del odio y las ideologías radicales, con la aparente idea de eliminar este tipo de contenidos de las redes. Frente a este discurso, encontramos la actitud de plataformas como la American Civil Liberties Union (ACLU), que al tiempo que condenaba las demostraciones y la violencia de los supremacistas blancos en Charlottesville, dejaba claro también en un tweet y en una carta abierta el derecho de los radicales a manifestarse en virtud de la Primera Enmienda de la Constitución, en una actitud que llevó a la asociación a recibir fuertes críticas y acusaciones de ambivalencia.

La actitud de la ACLU, de Foreign Policy o de páginas como Techdirt, que afirman la necesidad de proteger la libertad de expresión incluso aunque lo que esté siendo expresado nos repugne, hacen referencia a los problemas que puede traer una actitud maximalista y de intento de eliminación del discurso del odio: en primer lugar, que esa eliminación conlleva que ese discurso pase a tener lugar en foros ocultos o más discretos como la dark web, y se radicalice más aún mientras una parte de la sociedad piensa falsamente que ha sido eliminado. Y en segundo, que la arbitrariedad al designar qué discursos deben ser excluidos termine generando ambigüedades o situaciones en las que lamentemos haber concedido esas “excepciones” a la Primera Enmienda, dando lugar a problemas más importantes que los que se pretendía originalmente resolver. Una posición de este tipo viene a solicitar que se refuercen los mecanismos con los que la sociedad ya cuenta para impedir las acciones de los radicales, pero sin impedir su libertad de expresión, marcando una separación entre discurso y acciones.

En otro plano se sitúa la idea de que, aunque exista libertad de expresión y una persona pueda decir lo que quiera aunque resulte molesto en virtud de la Primera Enmienda constitucional, eso no implica que lo que diga no vaya a tener consecuencias, y esa persona, por haber dicho algo posiblemente repugnante o que genere animadversión, no vaya a sufrir consecuencias como, por ejemplo, perder su trabajo, ser expulsado de una universidad o ser objeto de otro tipo de represalias, como discutíamos hace pocos días o como magistralmente plasma XKCD en una de sus viñetas.

Frente a estas actitudes que claman por defender el ejercicio de la libertad de expresión a toda costa, surgen otras actitudes que invocan al filósofo Karl Popper y su paradoja de la tolerancia, que afirma que si una sociedad es tolerante sin límites, su habilidad para ser tolerante será finalmente confiscada o destruida por los intolerantes, lo que implica que defender la tolerancia exija no tolerar lo intolerante.

¿Debe toda expresión estar permitida en la sociedad o en la red? Después de todo, un numero creciente de gobiernos persiguen y cierran los foros en la red del yihadismo radical por su carácter de exaltación del odio religioso, y pocos son los que se escandalizan por ello. ¿Qué tienen los neonazis o los supremacistas blancos que no tenga el yihadismo radical, aparte -desgraciadamente – de más simpatizantes en algunas sociedades occidentales? Décadas de prohibición de actitudes y memorabilia nazi en algunos países europeos no parecen haber conseguido gran cosa a la hora de hacer desaparecer ese tipo de ideologías. ¿Aciertan las compañías tecnológicas pasando a una actitud más beligerante de exclusión del discurso del odio? ¿Pueden unos simples términos de servicio competir con la Primera Enmienda? ¿Se trata de una respuesta, posiblemente peligrosa, a la falsa equidistancia y al discurso de “ellos contra nosotros” del presidente Trump? ¿Deben ponerse límites a la libertad de expresión en la red?