Twitter account suspended (IMAGE: Kent Bye, CC BY)Twitter anuncia cambios en su algoritmo destinados a limitar la visibilidad de mensajes considerados ofensivos y de cuentas calificadas como trolls, un movimiento basado en miles de señales de comportamiento que intentarán deducir qué mensajes o cuentas merecen un tratamiento excluyente y los confinarán a espacios de acceso más limitado y de acceso menos habitual dentro de la red social. Facebook, por su parte, afirma haber eliminado 583 millones de cuentas falsas y 865 millones de actualizaciones, la mayor parte spam, en los primeros tres meses de 2018.

Según las aseguradoras de automóvil, hasta un 90% de las reclamaciones que reciben son fraudulentas, pero son generadas por alrededor de un 3% de los conductores. En todas las industrias existen patrones de este tipo: usuarios que incurren en un comportamiento claramente abusivo, y que generan perjuicios de diversos tipos para otro usuarios que se comportan de acuerdo con las reglas. En las redes sociales pasa exactamente lo mismo: un pequeño porcentaje de usuarios no solo no se comportan de la manera esperada, sino que además, pretenden abusar del sistema utilizándolo para fines que, en caso de ser llevados a cabo de manera habitual o masiva, convertirían la actividad en esa red en completamente insostenible. Los spammers, los trolls o los comportamientos abusivos generan perjuicios de muchos tipos, pero las redes sociales, tradicionalmente, han tratado de balancear cuestiones como la libertad de expresión de una manera tan garantista, que este tipo de comportamientos no han sido nunca adecuadamente desincentivados. Además, existen otros factores, como la dificultad de control: en muchos casos, los que incurren en este tipo de comportamientos y son sancionados con la expulsión o el cierre de la cuenta por ello, simplemente se dan la vuelta y abren otra cuenta sin ningún tipo de impedimento con la que continuar esa misma actividad, y así sucesivamente.

En la práctica, las medidas acometidas por Twitter pueden tener las mejores intenciones, pero son una solución muy limitada que oculta la realidad: lo que hay que hacer con el usuario que abusa del sistema y lo utiliza para insultar, hacer spam o acosar a un tercero no es limitar su visibilidad, sino lisa y llanamente, expulsarlo, y además, utilizar todos los medios tecnológicos al alcance de la compañía para evitar que vuelva a abrir otra cuenta. La expulsión sumaria es la única manera real de desincentivar determinados comportamientos que, de hecho, deberíamos calificar como de antisociales, y que por tanto, no deberían tener cabida en una red social. Diariamente denuncio a Twitter cuentas que violan claramente sus políticas de uso, unas políticas claramente expresadas en sus términos de servicio, para llevar a cabo spam: la compañía no hace ABSOLUTAMENTE NADA con esas cuentas. No toma acción de ningún tipo más que permitirme que las bloquee, lo que, obviamente, puede ser una solución limitada para mi problema, pero en modo alguno funciona como solución general. Toda la historia de Twitter responde al mismo problema: un camino alfombrado de buenas intenciones, de medias tintas, y de ausencia real de medidas efectivas.

Dentro de la responsabilidad de administrar una red social está el deber de poner en práctica sus términos de servicio. De nada sirve poner en esos términos de servicio que se sancionará con la expulsión a un usuario que incurra en spam o que utilice la red para acosar o insultar a un tercero, si en la práctica no vamos a  hacer absolutamente nada cuando esos casos se producen. Nada hace más daño a un sistema que las reglas que no se cumplen, o que se convierten en auténticas parodias. La paradoja de las redes sociales es clarísima: es perfectamente probable que su experiencia de uso y su propuesta de valor mejorase de manera muy clara simplemente excluyendo al 3% de usuarios que incurre en prácticas abusivas y antisociales, que las utiliza para hacer spam, que abre múltiples cuentas o que se dedica a insultar en ellas. Una política de expulsión efectiva, que de verdad cerrase esas cuentas y generase dificultades a quienes intentasen volver a abrir una cuenta desde el mismo dispositivo caracterizado mediante técnicas de digital fingerprinting o mediante otro tipo de análisis sería susceptible de generar un gran efecto positivo. Sin embargo, llevadas en muchos casos por la codicia de poder presentar un crecimiento o unas métricas de actividad más elevadas, las redes sociales tienden a retrasar o ignorar ese tipo de políticas, provocando un efecto nocivo que reduce la propuesta de valor para el resto de usuarios.

¿Es realmente tan difícil plantear unas reglas y cumplirlas? Hace mucho tiempo que soy de la opinión de que la inmensa mayoría de los problemas derivados de las redes sociales se solucionarían con una aplicación fehaciente de sus términos de uso y, básicamente, con mano dura. En entornos sociales, las reglas deben ser aplicadas de manera estricta si se quiere ofrecer una experiencia libre de abusos, y el pequeño porcentaje de usuarios dispuestos a abusar de esas reglas son, en la práctica, responsables del 90% de los problemas que se generan. Fuera de la red, la mayoría de las normas lógicas de convivencia se aplican de manera inmediata y sin temblarle el pulso a nadie, algo que vemos como completamente natural. ¿A qué estamos esperando para aplicar en la red reglas que cualquiera vería completamente natural que se aplicasen fuera de la red?

 

IMAGE: Mary Valery - 123RFMi columna en El Español de esta semana se titula “Problemas de otros tiempos” (pdf), y vuelve al tema tratado hace dos días, la exclusión de los supremacistas blancos y neonazis de la red, en virtud de una serie de medidas acometidas por compañías referentes en ese entorno. Si hace dos días contábamos cómo el panfleto neonazi “The Daily Stormer” era expulsado de su dominio por GoDaddy y, posteriormente, por Google, y se veía obligada a refugiarse en un dominio ruso, dos días más tarde podemos comprobar cómo el dominio ruso ha sido igualmente cancelado, y cómo Cloudflare, un proveedor de servicios de DNS, de protección y de distribución de contenidos fundamental en la red, retiraba asimismo sus servicios a la página neonazi.

Es precisamente el caso de Cloudflare, magistralmente explicado por su CEO, Matthew Prince, en versión corta y de circulación supuestamente interna, o en versión más larga y depurada, el que merece una mayor reflexión. Indudablemente, la página en cuestión tiene ahora muy complicado continuar su actividad en la red: a todos los efectos, ha sido expulsada de la red. Las palabras de Kevin Prince no dejan lugar a la ambigüedad: tras la estupidez recalcitrante de los creadores de la página, que se dedicaron a atribuir que Cloudflare no les hubiese echado a unas supuestas simpatías de la compañía por la ideología neonazi, afirma que 

“I woke up in a bad mood and decided someone shouldn’t be allowed on the Internet. No one should have that power.” 

(Me desperté de mal humor y decidí que la presencia de alguien no debería estar permitida en Internet. Nadie debería tener ese poder.)

En efecto, la reflexión del fundador y CEO de Cloudflare tiene mucho de sentido común: debido a un proceso de concentración empresarial, cada vez son menos las compañías implicadas en que alguien pueda tener voz en la red. Pero por muy repugnante que nos pueda resultar una página o una ideología determinada, los que deciden si tiene cabida o no en la red no deberían ser los responsables de una serie de compañías privadas: esa decisión debería corresponder a un juez, ejercitando el debido proceso penal.

El proceso de exclusión de las ideologías neonazis y supremacistas que estamos viviendo en los últimos días no se limita a una sola página. Si de alguna manera simpatizas con esa ideología, verás cómo los grupos que interpretan música con esa tendencia desaparecen de Spotify, los enlaces a ese tipo de contenidos no tienen cabida en Facebook, no puedes hablar del tema en foros de Reddit ni en algunas plataformas de mensajería instantánea, no puedes escribir en WordPress, las campañas de recaudación de fondos para esa temática no son permitidas en ninguna plataforma de crowdfunding ni tienen acceso a medios de pago como Apple Pay o PayPal, e incluso se impide tu acceso a herramientas para buscar pareja como OKCupid.

De acuerdo: las ideologías supremacistas, neonazis y que promueven el odio o la discriminación son AS-QUE-RO-SAS, y además, absurdas. Son tan propias de otros tiempos como el yihadismo, que corresponde en realidad a una idea de cruzada religiosa propia de hace cinco o diez siglos, pero que aún provoca barbaridades incomprensibles como la de anoche en Barcelona. Totalmente de acuerdo: las ideologías que proclaman que una raza es superior a otra, que una religión debe eliminar a los infieles o que un sexo está más preparado que otro deberían ser declaradas absolutamente inaceptables, parte de problemas del pasado basados en la ignorancia más supina y más absurda, una discusión completamente superada. Algunos imbéciles devenidos en presidentes pueden, desgraciadamente, hacer que los problemas de hace décadas vuelvan a resucitar y se conviertan de nuevo en parte del escenario, como si se tratase de ideologías en discusión, cuando la realidad es que hace muchos años que fueron adecuadamente excluidas del panorama político. Pero independientemente de que nos manifestemos públicamente en contra de esas ideologías caducas, las medidas de exclusión deberían provenir no de decisiones individuales de compañías privadas, sino de un juez. En muchos países de la Europa central hace décadas que determinados contenidos están radicalmente prohibidos, y eso responde a un consenso social fruto, en gran medida, de experiencias vividas anteriormente. En otros países, como los Estados Unidos, se asegura que el gobierno nunca podrá censurar tu libertad de pensamiento, de expresión o de publicación, pero no impiden que sea una compañía privada o actores de otro tipo los que eliminen, de facto, la posibilidad de alguien de expresarse en un medio determinado.

Tomemos la decisión con una idea de absoluta tolerancia al pensamiento – que no a los hechos – o con la conocida paradoja de la tolerancia bien presente, deberíamos tener en cuenta que hablamos de los elementos que van a constituir la sociedad en la que viviremos en el futuro, en la que vivirán nuestros hijos. ¿Deberíamos aspirar a impedir, prohibir o eliminar de la sociedad toda aquella ideología que de alguna manera no aceptase determinadas reglas? ¿Qué hacer, por ejemplo, en un caso como el de AfD en Alemania, que no se definen como abiertamente neonazis o supremacistas para evitar un conflicto legal, pero abiertamente defienden en sus propuestas este tipo de ideologías sin llamarlas por su nombre? Que una ideología provenga de movimientos supuestamente desechados hace diez siglos años o hace quince décadas no implica que no haya imbéciles capaces de hacer que vuelvan a resurgir, como estamos desgraciadamente comprobando. Habra que tomar decisiones sobre el lugar que esas ideologías caducas pueden o deben tener en la sociedad y en la red.