IMAGE: Clker - CC0 Creative CommonsFinalmente, todo indica que Twitter se ha decidido a actuar con decisión con respecto al que era su gran problema, del que habíamos hablado en numerosas ocasiones: la escasa calidad de una red infestada de cuentas falsas, bots, trolls y otras especies desagradables: durante los meses de mayo y junio, la compañía ha suspendido unos setenta millones de cuentas, más de un millón al día, en un intento por reducir los usos perniciosos de su red, y todo indica que la tendencia continúa en lo que llevamos del mes de julio.

La compañía está llevando a cabo esta limpieza en un momento en el que podía presumir de tener las mejores cifras de crecimiento de los últimos tiempos, pero lógicamente, una operación de limpieza semejante va a afectar esa evolución, y posiblemente conlleve que la compañía muestre crecimiento negativo en su número de usuarios durante algún tiempo. Tras la adquisición de Smyte, todo indica que, finalmente, la compañía ha terminado de clarificar su posición sobre la toxicidad y la supuesta protección de la libertad de expresión a toda costa: los que se definían a sí mismos como “the free speech wing of the free speech party”, se han dado cuenta de que, en la dura realidad, las posiciones idealistas tienen un límite, y que es imprescindible balancear la libertad de expresión con el potencial que tiene esa libertad para evitar que otros la tengan. En palabras de Del Harvey, VP de Seguridad y Confianza de la compañía desde hace ya más de ocho años, “la libertad de expresión no significa mucho si las personas no se sienten seguras”. 

La compañía parece finalmente caer en la cuenta de que mostrar un gran crecimiento de usuarios, aunque resulte vistoso de cara al accionista, es un indicador que, en realidad, no sirve para nada en una estrategia sostenible de largo plazo si ese crecimiento se debe fundamentalmente a granjas de seguidores falsos, a cuentas falsas y bots creados por actores que intentan simular seguimientos multitudinarios que no existen, o trolls que pretenden silenciar a otros mediante la agresión.  Como comentábamos el otro día, el gran problema de muchas compañías, la santificación del indicador equivocado hasta el punto de llegar a pensar que una base de datos de usuarios es siempre mejor cuanto más grande, aunque en realidad termine siendo un enorme montón de basura inútil o potencialmente perjudicial, una fuente de sanciones o de problemas.

En el caso de Twitter, el momento de verse prestando testimonio ante el Congreso de los Estados Unidos para intentar explicar el uso por parte de Rusia de cuentas falsas para influenciar las elecciones presidenciales puede haber actuado como una llamada de alerta: el número de usuarios no necesariamente es un indicador adecuado de crecimiento, y podría ser el momento de sacar la basura. Mejor tener una red más pequeña de usuarios genuinos, con cara y ojos – o de bots que supongan servicios útiles y con sentido – que crecer mucho gracias a fenómenos artificiales que, además, terminan generando problemas evidentes. La cada vez más patente necesidad de diferenciar estrategias de crecimiento a toda costa, frente a otras más orientadas al crecimiento sostenible. Perder número de usuarios, para intentar mantener una red en la que sea posible un uso razonable, un sitio donde puedas compartir cosas sin que un clima de profunda negatividad y ataques constantes te lleve a arrepentirte de haberlo hecho y a pensar que estás mejor abandonando esa red o limitándote a utilizarla de modo pasivo, como simple lurker.

Si Twitter finalmente ve la luz y mantiene esta actitud, bienvenida sea. ¿Puede llegar a ser capaz de eliminar todos los trolls y las cuentas falsas? Posiblemente no. La lucha entre quienes crean grandes cantidades de cuentas para simular un apoyo amplio y los sistemas de detección es similar a la de la película Blade Runner: robots intentando parecer humanos simulando acciones habituales en el comportamiento humano, hasta el punto de que es preciso que la compañía se arme con  algoritmos y pruebas diagnósticas que los descubran, una auténtica carrera de armamentos entre la inteligencia artificial necesaria para que una cuenta parezca genuina frente a la inteligencia artificial necesaria para descubrir a las que no lo son. Pero todo esfuerzo en ese sentido puede terminar siendo una buena inversión, una que realmente permita que un usuario pueda utilizar Twitter con normalidad, sin sentirse en medio de un montón de basura, rodeado de trolls que le insultan y amenazan por cualquier motivo, un sitio en el que arriesgarte a compartir una opinión conlleva casi tener que hacerse un seguro de vida. Esa progresión del nivel de toxicidad, decididamente, no era sostenible. Una triste metáfora que dice mucho de las sociedades humanas, pero que toda compañía, sobre todo en el ámbito de lo social, va a tener que considerar en el futuro.

 

Twitter toxicFinalmente, tras muchos años de abusos que llegaron incluso a amenazar la supervivencia de la compañía, Twitter parece que se plantea hacer algo con respecto a la toxicidad que impera en su plataforma, y adquiere Smyte, uno de los servicios que muchos utilizaban para combatirla. Una compañía formada por unas veinte personas, que había recibido hasta el momento unos $6.3 millones de financiación,

Las soluciones de la compañía, fundada en la incubadora Y Combinator en 2015 por tres ingenieros especializados en seguridad y lucha contra el fraude o el spam, permiten poner coto mediante reglas de machine learning derivadas de los datos o de las propia compañía a todo tipo de comportamientos indeseables en la red, desde estafas o phishing, hasta cuestiones como spam, cuentas falsas, bullying, hate speech, insultos o trolling. Inmediatamente tras el anuncio de la adquisición, Twitter cerró la API de Smyte, dejando a los clientes actuales de la compañía sin servicio y provocando airadas quejas.

La interpretación de Twitter de la libertad de expresión siempre me ha llamado la atención por su extremada ingenuidad. La libertad de expresión es, por supuesto, una causa por la que luchar y algo que siempre es necesario defender, pero que al mismo tiempo, precisa de reglas que permitan evitar un abuso que forma parte de la condición humana. Al proteger una supuesta libertad de expresión por encima de todo y sin reglas, se atenta claramente contra la liberta de expresión de quienes son atacados, generándose un entorno que termina convirtiéndose en una espiral de toxicidad, insultos y comportamientos organizados para silenciar o promover un pensamiento único, una plataforma que termina dando más voz a los que acosan, insultan y exhiben un comportamiento más proactivamente agresivo. El balance entre libertad de expresión y una plataforma saludable es algo que Twitter, claramente, nunca ha sabido gestionar bien, y que ha llevado a muchos usuarios a dejar de utilizarla o a adoptar una actitud de simple escucha, sin participación activa.

¿Puede Twitter, embarcada tras varios años discretos en una vuelta al crecimiento en un período de fuerte actividad, ser capaz de introducir reglas que controlen la agresividad, excluyan a los trolls, a los que insultan o a los que organizan estrategias para difundir interesadamente ideologías basadas en el odio? El servicio de Smyte tiene una reputación buena entre sus usuarios y parece que no es un mal primer paso, pero completarlo exigiría el desarrollo de reglas que permitan una exclusión efectiva de quienes violan las reglas. De poco sirve cerrar una cuenta si la persona u organización que se encuentra tras ella puede volver a abrirla con otro nombre de manera prácticamente inmediata y darle visibilidad simplemente siguiéndola desde otras cuentas o comprando seguidores. Es necesario poner en marcha servicios que permitan una exclusión efectiva basados en digital fingerprinting, que al menos dificulten de manera real el mantenimiento de comportamientos o estrategias basadas en el uso de la agresividad.

En ese sentido, existen cada vez más iniciativas para gestionar este tipo de comportamientos. La compañía española eGarante, por ejemplo, ofrece desde hace poco un servicio para prevenir y combatir el acoso en redes sociales como Twitter, basada en la disuasión: permite una recogida de pruebas de esos comportamiento con total validez jurídica certificando las interacciones aunque estas sean posteriormente eliminadas, lo que hace posible una eventual actuación judicial. Una herramienta que conlleva una cierta actitud de “judicialización de la conversación” que posiblemente solo se justifique en casos muy determinados, pero que enmarca al menos una manera de disuadir determinados comportamientos, como las amenazas o la difamación, para los que solo puede entenderse el recurso a la ley como respuesta válida.

Por supuesto, no es sencillo. Diferenciar la agresividad sistemática de la mera sátira o de la crítica razonable no es sencillo, un ese proceso en el que puede haber numerosos falsos positivos, cada uno con una historia detrás. Hay personas que promueven el odio sin necesidad de utilizar términos malsonantes o insultos, simplemente utilizando la ironía o la sátira, que lo hacen únicamente de manera ocasional, o que pretenden pasar por rebeldes, por inconformistas o por iconoclastas mediante ese tipo de estrategias. Algunos muy visibles o con mucho seguimiento, capaces de organizar auténticas revueltas de usuarios o amenazas de boicot si son silenciados. Sin embargo, es algo necesario, como lo es el desarrollo de reglas de convivencia social, si se pretende mantener una estrategia sostenible. La adquisición de Smyte puede marcar un momento interesante en la historia de Twitter: ¿abandona finalmente la compañía su ingenuidad casi infantil en la defensa de una libertad de expresión sin reglas que ha llegado a perjudicar fuertemente su propuesta de valor, o seguirá diciendo que si te insultan, lo mejor es que adoptes la estrategia del avestruz y cierres los ojos para no verlo?

 

DisruptJ20El pasado 15 de agosto, saltó una noticia preocupante: el Departamento de Justicia estadounidense había enviado una orden de registro a una compañía de alojamiento web, DreamHost, demandando todos los datos disponibles, incluidas direcciones IP, de los 1.3 millones de visitantes a la página DisruptJ20, que funcionó como aglutinadora de las marchas de protesta el día de la toma de posesión del presidente Donald Trump en Washington.

Las alertas se encendieron inmediatamente, al tiempo que DreamHost anunciaba que apelaría la orden: ¿tiene algún sentido que el gobierno de un país democrático con libertad de expresión pretenda solicitar datos sobre los visitantes a una página de protesta contra su presidente?

Tras la respuesta de los tribunales, el Departamento de Justicia ha decidido retirar su petición, y explicar que no tenía ningún interés en los visitantes de la página, sino únicamente en los que la hubiesen podido utilizar para coordinar protestas y acciones violentas. La retirada de la petición supone un triunfo para DreamHost, que podría haber simplemente tratado el asunto de manera discreta y haber suministrado los datos solicitados al Departamento de Justicia, pero decidió resistirse y apelar la orden de registro por respeto a la privacidad de sus usuarios.

Que un presidente como Donald Trump intentase crear un registro de disidentes o de personas críticas con su gobierno entraría dentro de lo imaginable, y más aún después del fiasco que supuso la ceremonia de su toma de posesión, con cuya audiencia y asistencia parecía completamente obsesionado. Sin embargo, las actividades de protesta o de contestación al gobierno son, como no podría ser de otra manera, completamente legales en los Estados Unidos, y la idea de solicitar los datos de los visitantes a una página de protesta resulta directamente demencial. Durante la toma de posesión, que concentraron a varios miles de personas en unas veinte acciones de protesta que habían solicitado los debidos permisos y que tuvieron lugar mayoritariamente de forma pacífica, aunque se produjeron algunas acciones aisladas de violencia que dejaron como resultado el arresto de unas doscientas personas. Muy poco saldo para justificar una acción como la solicitada en la orden de registro, en la que se solicitaba los datos de todos los visitantes a la página, y que independientemente de las pretensiones de la administración, y se se convertía así en un claro exceso de celo en la investigación y en un evidente abuso de la autoridad gubernamental que evocaba las listas negras, las persecuciones políticas y las cazas de brujas habituales en regímenes no democráticos.

Según el escrito del gobierno, la página web no era sólo un medio para difundir públicamente la información de las protestas, sino también un medio para coordinar y comunicar en privado a un grupo de personas entre cuyas intenciones se incluía la planificación de acciones violentas. Tras las protestas de DreamHost, el Departamento de Justicia afirmó no haberse dado cuenta de la magnitud de su petición y de que abarcase a más de 1.3 millones de usuarios, y aseguró estar interesado únicamente en un pequeño y selecto grupo de personas, una afirmación cuya veracidad ha sido lógicamente puesta en duda por los abogados de la contraparte.

En la web, todo lo que hacemos queda recogido en algún fichero log. Solicitar datos de esos ficheros para identificar a los participantes en una acción determinada es algo que tiene que justificarse muy bien en virtud de la importancia del delito presuntamente cometido. En política, al menos en países con tradición democrática y separación de poderes, solicitar los datos de los visitantes a una página de protesta contra el gobierno, independientemente de que algunas de esas protestas terminasen en algunas acciones de violencia, es algo que tiene un aspecto directamente siniestro. Una vez más, uno de esos “pequeños detalles sin importancia” del alucinante – y esperemos que fugaz – paso por la Casa Blanca de un impresentable llamado Donald Trump…

 

IMAGE: Mary Valery - 123RFMi columna en El Español de esta semana se titula “Problemas de otros tiempos” (pdf), y vuelve al tema tratado hace dos días, la exclusión de los supremacistas blancos y neonazis de la red, en virtud de una serie de medidas acometidas por compañías referentes en ese entorno. Si hace dos días contábamos cómo el panfleto neonazi “The Daily Stormer” era expulsado de su dominio por GoDaddy y, posteriormente, por Google, y se veía obligada a refugiarse en un dominio ruso, dos días más tarde podemos comprobar cómo el dominio ruso ha sido igualmente cancelado, y cómo Cloudflare, un proveedor de servicios de DNS, de protección y de distribución de contenidos fundamental en la red, retiraba asimismo sus servicios a la página neonazi.

Es precisamente el caso de Cloudflare, magistralmente explicado por su CEO, Matthew Prince, en versión corta y de circulación supuestamente interna, o en versión más larga y depurada, el que merece una mayor reflexión. Indudablemente, la página en cuestión tiene ahora muy complicado continuar su actividad en la red: a todos los efectos, ha sido expulsada de la red. Las palabras de Kevin Prince no dejan lugar a la ambigüedad: tras la estupidez recalcitrante de los creadores de la página, que se dedicaron a atribuir que Cloudflare no les hubiese echado a unas supuestas simpatías de la compañía por la ideología neonazi, afirma que 

“I woke up in a bad mood and decided someone shouldn’t be allowed on the Internet. No one should have that power.” 

(Me desperté de mal humor y decidí que la presencia de alguien no debería estar permitida en Internet. Nadie debería tener ese poder.)

En efecto, la reflexión del fundador y CEO de Cloudflare tiene mucho de sentido común: debido a un proceso de concentración empresarial, cada vez son menos las compañías implicadas en que alguien pueda tener voz en la red. Pero por muy repugnante que nos pueda resultar una página o una ideología determinada, los que deciden si tiene cabida o no en la red no deberían ser los responsables de una serie de compañías privadas: esa decisión debería corresponder a un juez, ejercitando el debido proceso penal.

El proceso de exclusión de las ideologías neonazis y supremacistas que estamos viviendo en los últimos días no se limita a una sola página. Si de alguna manera simpatizas con esa ideología, verás cómo los grupos que interpretan música con esa tendencia desaparecen de Spotify, los enlaces a ese tipo de contenidos no tienen cabida en Facebook, no puedes hablar del tema en foros de Reddit ni en algunas plataformas de mensajería instantánea, no puedes escribir en WordPress, las campañas de recaudación de fondos para esa temática no son permitidas en ninguna plataforma de crowdfunding ni tienen acceso a medios de pago como Apple Pay o PayPal, e incluso se impide tu acceso a herramientas para buscar pareja como OKCupid.

De acuerdo: las ideologías supremacistas, neonazis y que promueven el odio o la discriminación son AS-QUE-RO-SAS, y además, absurdas. Son tan propias de otros tiempos como el yihadismo, que corresponde en realidad a una idea de cruzada religiosa propia de hace cinco o diez siglos, pero que aún provoca barbaridades incomprensibles como la de anoche en Barcelona. Totalmente de acuerdo: las ideologías que proclaman que una raza es superior a otra, que una religión debe eliminar a los infieles o que un sexo está más preparado que otro deberían ser declaradas absolutamente inaceptables, parte de problemas del pasado basados en la ignorancia más supina y más absurda, una discusión completamente superada. Algunos imbéciles devenidos en presidentes pueden, desgraciadamente, hacer que los problemas de hace décadas vuelvan a resucitar y se conviertan de nuevo en parte del escenario, como si se tratase de ideologías en discusión, cuando la realidad es que hace muchos años que fueron adecuadamente excluidas del panorama político. Pero independientemente de que nos manifestemos públicamente en contra de esas ideologías caducas, las medidas de exclusión deberían provenir no de decisiones individuales de compañías privadas, sino de un juez. En muchos países de la Europa central hace décadas que determinados contenidos están radicalmente prohibidos, y eso responde a un consenso social fruto, en gran medida, de experiencias vividas anteriormente. En otros países, como los Estados Unidos, se asegura que el gobierno nunca podrá censurar tu libertad de pensamiento, de expresión o de publicación, pero no impiden que sea una compañía privada o actores de otro tipo los que eliminen, de facto, la posibilidad de alguien de expresarse en un medio determinado.

Tomemos la decisión con una idea de absoluta tolerancia al pensamiento – que no a los hechos – o con la conocida paradoja de la tolerancia bien presente, deberíamos tener en cuenta que hablamos de los elementos que van a constituir la sociedad en la que viviremos en el futuro, en la que vivirán nuestros hijos. ¿Deberíamos aspirar a impedir, prohibir o eliminar de la sociedad toda aquella ideología que de alguna manera no aceptase determinadas reglas? ¿Qué hacer, por ejemplo, en un caso como el de AfD en Alemania, que no se definen como abiertamente neonazis o supremacistas para evitar un conflicto legal, pero abiertamente defienden en sus propuestas este tipo de ideologías sin llamarlas por su nombre? Que una ideología provenga de movimientos supuestamente desechados hace diez siglos años o hace quince décadas no implica que no haya imbéciles capaces de hacer que vuelvan a resurgir, como estamos desgraciadamente comprobando. Habra que tomar decisiones sobre el lugar que esas ideologías caducas pueden o deben tener en la sociedad y en la red.

 

IMAGE: Łukasz Stefański - 123RFTras los trágicos eventos de Charlottesville, la actitud de algunas compañías en el entorno de la tecnología con respecto a la tolerancia frente al discurso del odio parece estar empezando a cambiar. En un breve espacio de tiempo, el registrador de dominios GoDaddy ha rescindido el registro de la página neo-nazi “The Daily Stormer“, que de manera inmediata la ha desplazado a Google Sites, para encontrarse con una nueva negativa de Google a hospedarla alegando la violación de sus términos de servicio, y con la cancelación del nuevo dominio. Tras esa segunda expulsión, la página ha decidido trasladar su domino a la dark web, con la promesa de volver más adelante.

Al tiempo, Facebook ha decidido eliminar todos los enlaces a un artículo publicado en la misma página en el que insultaban a la víctima del atropello de Charlottesville, Reddit ha cerrado foros en los que se hacía apología del odio y del nazismo, el sistema de mensajería instantánea para gamers Discord, aparentemente muy utilizado por este tipo de comunidades radicales, ha cerrado servidores y expulsado a usuarios que lo utilizaban para conversaciones para promover la ideología nazi, y sitios de crowdfunding como GoFundMe o Kickstarter han cancelado campañas que pretendían recoger fondos para la defensa del autor del brutal atropello.

Las acciones de las compañías tecnológicas sugieren un importante cambio de actitud frente al discurso del odio y las ideologías radicales, con la aparente idea de eliminar este tipo de contenidos de las redes. Frente a este discurso, encontramos la actitud de plataformas como la American Civil Liberties Union (ACLU), que al tiempo que condenaba las demostraciones y la violencia de los supremacistas blancos en Charlottesville, dejaba claro también en un tweet y en una carta abierta el derecho de los radicales a manifestarse en virtud de la Primera Enmienda de la Constitución, en una actitud que llevó a la asociación a recibir fuertes críticas y acusaciones de ambivalencia.

La actitud de la ACLU, de Foreign Policy o de páginas como Techdirt, que afirman la necesidad de proteger la libertad de expresión incluso aunque lo que esté siendo expresado nos repugne, hacen referencia a los problemas que puede traer una actitud maximalista y de intento de eliminación del discurso del odio: en primer lugar, que esa eliminación conlleva que ese discurso pase a tener lugar en foros ocultos o más discretos como la dark web, y se radicalice más aún mientras una parte de la sociedad piensa falsamente que ha sido eliminado. Y en segundo, que la arbitrariedad al designar qué discursos deben ser excluidos termine generando ambigüedades o situaciones en las que lamentemos haber concedido esas “excepciones” a la Primera Enmienda, dando lugar a problemas más importantes que los que se pretendía originalmente resolver. Una posición de este tipo viene a solicitar que se refuercen los mecanismos con los que la sociedad ya cuenta para impedir las acciones de los radicales, pero sin impedir su libertad de expresión, marcando una separación entre discurso y acciones.

En otro plano se sitúa la idea de que, aunque exista libertad de expresión y una persona pueda decir lo que quiera aunque resulte molesto en virtud de la Primera Enmienda constitucional, eso no implica que lo que diga no vaya a tener consecuencias, y esa persona, por haber dicho algo posiblemente repugnante o que genere animadversión, no vaya a sufrir consecuencias como, por ejemplo, perder su trabajo, ser expulsado de una universidad o ser objeto de otro tipo de represalias, como discutíamos hace pocos días o como magistralmente plasma XKCD en una de sus viñetas.

Frente a estas actitudes que claman por defender el ejercicio de la libertad de expresión a toda costa, surgen otras actitudes que invocan al filósofo Karl Popper y su paradoja de la tolerancia, que afirma que si una sociedad es tolerante sin límites, su habilidad para ser tolerante será finalmente confiscada o destruida por los intolerantes, lo que implica que defender la tolerancia exija no tolerar lo intolerante.

¿Debe toda expresión estar permitida en la sociedad o en la red? Después de todo, un numero creciente de gobiernos persiguen y cierran los foros en la red del yihadismo radical por su carácter de exaltación del odio religioso, y pocos son los que se escandalizan por ello. ¿Qué tienen los neonazis o los supremacistas blancos que no tenga el yihadismo radical, aparte -desgraciadamente – de más simpatizantes en algunas sociedades occidentales? Décadas de prohibición de actitudes y memorabilia nazi en algunos países europeos no parecen haber conseguido gran cosa a la hora de hacer desaparecer ese tipo de ideologías. ¿Aciertan las compañías tecnológicas pasando a una actitud más beligerante de exclusión del discurso del odio? ¿Pueden unos simples términos de servicio competir con la Primera Enmienda? ¿Se trata de una respuesta, posiblemente peligrosa, a la falsa equidistancia y al discurso de “ellos contra nosotros” del presidente Trump? ¿Deben ponerse límites a la libertad de expresión en la red?