Facebook account disabledMi columna en El Español de esta semana se titula “Problemas sin precedentes” (pdf), e intenta hacer algo de didáctica acerca del impresionante reto tecnológico que supone para una compañía como Facebook gestionar una red con más de dos mil millones de personas, un tercio de la población mundial, que pasan en sus páginas una media de cincuenta minutos cada día consumiendo y creando todo tipo de contenido, y cuyas acciones es preciso controlar para evitar determinados comportamientos considerados nocivos.

Una entrevista con el director de seguridad de la compañía, Alex Stamos, revela que la red social elimina cada día una media de un millón de cuentas por infringir sus políticas de uso, por motivos con motivación económica como spam, fraudes o estafas, pero también por razones relacionadas con la exaltación del odio, la incitación a la violencia, las amenazas, el acoso, etc.

Eliminar un millón de cuentas al día implica, lógicamente, tener que revisar muchísimas cuentas más, con una combinación de herramientas algorítmicas y manuales que supone un reto tecnológico para el que no existen precedentes. Cuando leemos que Facebook se plantea fichar a miles de personas para supervisar contenido, podemos intentar hacernos una idea de la magnitud de la tarea y de lo que supone, teniendo en cuenta que la supervisión manual no es más que una parte de la solución. De hecho, el principal problema no es ya establecer una determinada política o criterio de seguridad, sino diseñar los retos técnicos que supone la supervisión de la misma. Imaginemos lo que supone patrullar una red en la que, cada día, un millón de cuentas son deshabilitadas por todo tipo de motivos: obviamente, se cometen errores tanto de tipo 1, o falsos positivos, como de tipo 2, o falsos negativos, que la compañía intenta lógicamente reducir en la medida de lo posible. Cada vez que la compañía identifica como violenta y elimina una cuenta que juraba venganza contra un mosquito, por ejemplo, se arriesga a situaciones que van desde la simple burla al escándalo o a las acusaciones de censura injustificada, y a tener que invertir valiosas horas en supervisión manual y revisión de casos individuales.

Mientras la compañía, como otras empresas con problemas similares como Google o Twitter, intenta avanzar en la resolución de este tipo de cuestiones, resulta que llegan una serie de políticos en Alemania que, en su supina ignorancia, no llegan ni remotamente a hacerse a la idea de lo que supone una tarea como esta, y deciden que como en las redes sociales hay en ocasiones mensajes de exaltación al odio, hay que hacer algo rápidamente. Y por supuesto, sus soluciones son, simplemente, “soluciones de político”: deciden convertir el hecho en delito penal e imponer una multa impresionante, 50,000 euros, a las redes sociales que no eliminen esos mensajes con la debida prontitud. La medida es una prueba clara de cuánto de profunda puede llegar a ser la ineptitud y la ignorancia de los políticos: como las redes sociales, debido a una escala y nivel de adopción sin precedentes en la historia, están teniendo algunos episodios aislados de divulgación del discurso del odio, vienen los políticos de turno y deciden que se les impongan multas. Y todavía creerán que han resuelto el problema.

¿Qué efecto genera una ley tan estúpida como esa, promulgada por absolutos ignorantes tecnológicos incapaces de imaginar lo que implica la tarea que tan alegremente demandan? Que Facebook ahora pasa de tener un problema que conllevaba el ridículo público, a tener otro que conlleva responsabilidades penales y enormes multas. En consecuencia, la compañía se ve obligada a escalar rápidamente sus esfuerzos en la supervisión de cuentas, a cerrar más cuentas, y a que los errores, lógicamente, se incrementen en consecuencia. Para arreglar un problema que se solucionaba simplemente dando tiempo a las compañías a que desarrollasen mejores sistemas y a que ideasen otros protocolos, se genera otro problema mayor: que ahora haya más cuentas que son cerradas incorrectamente por cuestiones como sátira, humor, ironía o simplemente exposición lícita de posturas políticas en las que se mencionan determinadas palabras.

En realidad, los mensajes de odio en las redes sociales son cada vez más un problema menos importante, porque la mejora progresiva de los sistemas de denuncia colectiva tienden a hacer que esas cuentas sean eliminadas de manera razonablemente rápida. El exceso de celo de los políticos de turno, en realidad, no era necesario. Pero ahora, a cambio, tendremos redes que censuran más, de manera más habitual y con más errores. Todo un gran logro: gracias por protegernos tanto.

Líbrenos dios de políticos ignorantes con buenas intenciones, que de los que las tienen malas ya procuraré librarme yo…

 

IMAGE: Mary Valery - 123RFMi columna en El Español de esta semana se titula “Problemas de otros tiempos” (pdf), y vuelve al tema tratado hace dos días, la exclusión de los supremacistas blancos y neonazis de la red, en virtud de una serie de medidas acometidas por compañías referentes en ese entorno. Si hace dos días contábamos cómo el panfleto neonazi “The Daily Stormer” era expulsado de su dominio por GoDaddy y, posteriormente, por Google, y se veía obligada a refugiarse en un dominio ruso, dos días más tarde podemos comprobar cómo el dominio ruso ha sido igualmente cancelado, y cómo Cloudflare, un proveedor de servicios de DNS, de protección y de distribución de contenidos fundamental en la red, retiraba asimismo sus servicios a la página neonazi.

Es precisamente el caso de Cloudflare, magistralmente explicado por su CEO, Matthew Prince, en versión corta y de circulación supuestamente interna, o en versión más larga y depurada, el que merece una mayor reflexión. Indudablemente, la página en cuestión tiene ahora muy complicado continuar su actividad en la red: a todos los efectos, ha sido expulsada de la red. Las palabras de Kevin Prince no dejan lugar a la ambigüedad: tras la estupidez recalcitrante de los creadores de la página, que se dedicaron a atribuir que Cloudflare no les hubiese echado a unas supuestas simpatías de la compañía por la ideología neonazi, afirma que 

“I woke up in a bad mood and decided someone shouldn’t be allowed on the Internet. No one should have that power.” 

(Me desperté de mal humor y decidí que la presencia de alguien no debería estar permitida en Internet. Nadie debería tener ese poder.)

En efecto, la reflexión del fundador y CEO de Cloudflare tiene mucho de sentido común: debido a un proceso de concentración empresarial, cada vez son menos las compañías implicadas en que alguien pueda tener voz en la red. Pero por muy repugnante que nos pueda resultar una página o una ideología determinada, los que deciden si tiene cabida o no en la red no deberían ser los responsables de una serie de compañías privadas: esa decisión debería corresponder a un juez, ejercitando el debido proceso penal.

El proceso de exclusión de las ideologías neonazis y supremacistas que estamos viviendo en los últimos días no se limita a una sola página. Si de alguna manera simpatizas con esa ideología, verás cómo los grupos que interpretan música con esa tendencia desaparecen de Spotify, los enlaces a ese tipo de contenidos no tienen cabida en Facebook, no puedes hablar del tema en foros de Reddit ni en algunas plataformas de mensajería instantánea, no puedes escribir en WordPress, las campañas de recaudación de fondos para esa temática no son permitidas en ninguna plataforma de crowdfunding ni tienen acceso a medios de pago como Apple Pay o PayPal, e incluso se impide tu acceso a herramientas para buscar pareja como OKCupid.

De acuerdo: las ideologías supremacistas, neonazis y que promueven el odio o la discriminación son AS-QUE-RO-SAS, y además, absurdas. Son tan propias de otros tiempos como el yihadismo, que corresponde en realidad a una idea de cruzada religiosa propia de hace cinco o diez siglos, pero que aún provoca barbaridades incomprensibles como la de anoche en Barcelona. Totalmente de acuerdo: las ideologías que proclaman que una raza es superior a otra, que una religión debe eliminar a los infieles o que un sexo está más preparado que otro deberían ser declaradas absolutamente inaceptables, parte de problemas del pasado basados en la ignorancia más supina y más absurda, una discusión completamente superada. Algunos imbéciles devenidos en presidentes pueden, desgraciadamente, hacer que los problemas de hace décadas vuelvan a resucitar y se conviertan de nuevo en parte del escenario, como si se tratase de ideologías en discusión, cuando la realidad es que hace muchos años que fueron adecuadamente excluidas del panorama político. Pero independientemente de que nos manifestemos públicamente en contra de esas ideologías caducas, las medidas de exclusión deberían provenir no de decisiones individuales de compañías privadas, sino de un juez. En muchos países de la Europa central hace décadas que determinados contenidos están radicalmente prohibidos, y eso responde a un consenso social fruto, en gran medida, de experiencias vividas anteriormente. En otros países, como los Estados Unidos, se asegura que el gobierno nunca podrá censurar tu libertad de pensamiento, de expresión o de publicación, pero no impiden que sea una compañía privada o actores de otro tipo los que eliminen, de facto, la posibilidad de alguien de expresarse en un medio determinado.

Tomemos la decisión con una idea de absoluta tolerancia al pensamiento – que no a los hechos – o con la conocida paradoja de la tolerancia bien presente, deberíamos tener en cuenta que hablamos de los elementos que van a constituir la sociedad en la que viviremos en el futuro, en la que vivirán nuestros hijos. ¿Deberíamos aspirar a impedir, prohibir o eliminar de la sociedad toda aquella ideología que de alguna manera no aceptase determinadas reglas? ¿Qué hacer, por ejemplo, en un caso como el de AfD en Alemania, que no se definen como abiertamente neonazis o supremacistas para evitar un conflicto legal, pero abiertamente defienden en sus propuestas este tipo de ideologías sin llamarlas por su nombre? Que una ideología provenga de movimientos supuestamente desechados hace diez siglos años o hace quince décadas no implica que no haya imbéciles capaces de hacer que vuelvan a resurgir, como estamos desgraciadamente comprobando. Habra que tomar decisiones sobre el lugar que esas ideologías caducas pueden o deben tener en la sociedad y en la red.

 

IMAGE: Łukasz Stefański - 123RFTras los trágicos eventos de Charlottesville, la actitud de algunas compañías en el entorno de la tecnología con respecto a la tolerancia frente al discurso del odio parece estar empezando a cambiar. En un breve espacio de tiempo, el registrador de dominios GoDaddy ha rescindido el registro de la página neo-nazi “The Daily Stormer“, que de manera inmediata la ha desplazado a Google Sites, para encontrarse con una nueva negativa de Google a hospedarla alegando la violación de sus términos de servicio, y con la cancelación del nuevo dominio. Tras esa segunda expulsión, la página ha decidido trasladar su domino a la dark web, con la promesa de volver más adelante.

Al tiempo, Facebook ha decidido eliminar todos los enlaces a un artículo publicado en la misma página en el que insultaban a la víctima del atropello de Charlottesville, Reddit ha cerrado foros en los que se hacía apología del odio y del nazismo, el sistema de mensajería instantánea para gamers Discord, aparentemente muy utilizado por este tipo de comunidades radicales, ha cerrado servidores y expulsado a usuarios que lo utilizaban para conversaciones para promover la ideología nazi, y sitios de crowdfunding como GoFundMe o Kickstarter han cancelado campañas que pretendían recoger fondos para la defensa del autor del brutal atropello.

Las acciones de las compañías tecnológicas sugieren un importante cambio de actitud frente al discurso del odio y las ideologías radicales, con la aparente idea de eliminar este tipo de contenidos de las redes. Frente a este discurso, encontramos la actitud de plataformas como la American Civil Liberties Union (ACLU), que al tiempo que condenaba las demostraciones y la violencia de los supremacistas blancos en Charlottesville, dejaba claro también en un tweet y en una carta abierta el derecho de los radicales a manifestarse en virtud de la Primera Enmienda de la Constitución, en una actitud que llevó a la asociación a recibir fuertes críticas y acusaciones de ambivalencia.

La actitud de la ACLU, de Foreign Policy o de páginas como Techdirt, que afirman la necesidad de proteger la libertad de expresión incluso aunque lo que esté siendo expresado nos repugne, hacen referencia a los problemas que puede traer una actitud maximalista y de intento de eliminación del discurso del odio: en primer lugar, que esa eliminación conlleva que ese discurso pase a tener lugar en foros ocultos o más discretos como la dark web, y se radicalice más aún mientras una parte de la sociedad piensa falsamente que ha sido eliminado. Y en segundo, que la arbitrariedad al designar qué discursos deben ser excluidos termine generando ambigüedades o situaciones en las que lamentemos haber concedido esas “excepciones” a la Primera Enmienda, dando lugar a problemas más importantes que los que se pretendía originalmente resolver. Una posición de este tipo viene a solicitar que se refuercen los mecanismos con los que la sociedad ya cuenta para impedir las acciones de los radicales, pero sin impedir su libertad de expresión, marcando una separación entre discurso y acciones.

En otro plano se sitúa la idea de que, aunque exista libertad de expresión y una persona pueda decir lo que quiera aunque resulte molesto en virtud de la Primera Enmienda constitucional, eso no implica que lo que diga no vaya a tener consecuencias, y esa persona, por haber dicho algo posiblemente repugnante o que genere animadversión, no vaya a sufrir consecuencias como, por ejemplo, perder su trabajo, ser expulsado de una universidad o ser objeto de otro tipo de represalias, como discutíamos hace pocos días o como magistralmente plasma XKCD en una de sus viñetas.

Frente a estas actitudes que claman por defender el ejercicio de la libertad de expresión a toda costa, surgen otras actitudes que invocan al filósofo Karl Popper y su paradoja de la tolerancia, que afirma que si una sociedad es tolerante sin límites, su habilidad para ser tolerante será finalmente confiscada o destruida por los intolerantes, lo que implica que defender la tolerancia exija no tolerar lo intolerante.

¿Debe toda expresión estar permitida en la sociedad o en la red? Después de todo, un numero creciente de gobiernos persiguen y cierran los foros en la red del yihadismo radical por su carácter de exaltación del odio religioso, y pocos son los que se escandalizan por ello. ¿Qué tienen los neonazis o los supremacistas blancos que no tenga el yihadismo radical, aparte -desgraciadamente – de más simpatizantes en algunas sociedades occidentales? Décadas de prohibición de actitudes y memorabilia nazi en algunos países europeos no parecen haber conseguido gran cosa a la hora de hacer desaparecer ese tipo de ideologías. ¿Aciertan las compañías tecnológicas pasando a una actitud más beligerante de exclusión del discurso del odio? ¿Pueden unos simples términos de servicio competir con la Primera Enmienda? ¿Se trata de una respuesta, posiblemente peligrosa, a la falsa equidistancia y al discurso de “ellos contra nosotros” del presidente Trump? ¿Deben ponerse límites a la libertad de expresión en la red?

 

IMAGE: Redrockerz - 123RFUno de los principales problemas que redes como Twitter han experimentado a lo largo de los años es, como hemos comentado ya en bastantes ocasiones, su gestión del problema del acoso y el insulto.

Desde su fundación, Twitter intentó plantearse como una herramienta que hacía una defensa militante y maximalista de la libertad de expresión, lo que terminó por generar un entorno en el que era precisamente esa supuesta libertad de expresión la que se veía coartada por las reacciones de usuarios con comportamientos nocivos.

A lo largo del tiempo, ese ambiente nocivo le ha costado a Twitter grandes disgustos, desde un crecimiento menor de lo esperado, a un predominio creciente de comportamientos pasivos (lurking) frente a activos, e incluso a comprometer su futuro provocando que otras compañías dejasen de plantearse posibles ofertas de adquisición derivadas de las dinámicas venenosas existentes en la plataforma.

Tras múltiples intentos de corrección de estas dinámicas, muchos de los cuales son en realidad auténticas “tácticas de avestruz”, formas de ocultar el acoso a los ojos del acosado como si eso lo hiciese supuestamente desaparecer, ahora Twitter se plantea algo nuevo: una colaboración con IBM para que sea su sistema de machine learning, Watson, quien detecte, a través del estudio de patrones conversacionales, posibles situaciones de acoso y comportamientos abusivos, incluso antes de que sean denunciados.

¿Es posible que una inteligencia artificial detecte actitudes como el acoso o el abuso verbal? La cuestión no parece sencilla, porque hablamos de situaciones que van desde el insulto directo, que podrían ser detectadas simplemente con el uso de un diccionario, hasta otras mucho más complejas en las que se hace uso de la ironía, de los dobles sentidos, o de elementos no presentes en la conversación a los que se hace referencia de manera velada como insinuaciones, o a veces ni eso. Acosar a alguien puede incluir dinámicas muy complicadas, a veces incluso retorcidas, y utilizar patrones que van desde lo más sencillo a lo más alambicado.

¿A favor de Twitter? Cuenta posiblemente con uno de los mejores archivos online de comportamientos abusivos denunciados como tales. A lo largo de sus ya once años de historia, la compañía se ha visto envuelta en todo tipo de escándalos de elevada visibilidad y en una amplísima variedad de situaciones infinitamente menos conocidas que han afectado a usuarios de todo perfil y condición, con desenlaces conocidos. Para la compañía, resulta perfectamente posible estudiar en su inmenso archivo toda situación en la que determinadas actitudes hayan sido denunciadas como acoso, insulto, bullying, sexismo, incitación al odio, etc. e incluso etiquetar perfiles en función de su inclinación a exhibir ese tipo de comportamientos. Ese tipo de datos son precisamente lo que un algoritmo de machine learning necesita para ser entrenado correctamente, considerando que la semantización y el análisis del lenguaje humano ya son llevados a cabo algorítmicamente de manera más que satisfactoria. Obviamente, esto aún no incluye todo: algunas situaciones, como el uso de imágenes, pueden resultar algo más difíciles de procesar, pero en modo alguno representan algo que, a día de hoy, esté fuera de las capacidades de una inteligencia artificial, o en ultimo término, algo que puede recibir ayuda puntual de evaluadores humanos a la hora de determinar si efectivamente se trataba de una situación de ese tipo.

¿Puede Watson convertirse en el juez que determina si el comportamiento de un usuario debe ser considerado nocivo? Como afectado en algunos momentos por comportamientos de ese tipo que vio, además, cómo Twitter se lavaba las manos e incluso contribuía a empeorar aquella situación considerada por muchos como algo “simpático” y digno incluso de ser premiado, creo que sí, que el machine learning puede aportar un sistema que permita, cuando menos, etiquetar ese tipo de comportamientos, tipificarlos y permitir una gestión adecuada de los mismos, como también es muy posible que pueda colaborar en la detección de otro patrón habitual: la gestión de múltiples identidades y la apertura inmediata de otra cuenta para proseguir con el comportamiento nocivo cuando la primera cuenta es eliminada.

¿Existe algún tipo de conflicto entre un sistema así y la libertad de expresión? Todo depende de cómo queramos definir la libertad de expresión. Si consideramos que una red social debería servir para que todos podamos decir todo lo que se nos pase por la cabeza sin ningún tipo de freno o cortapisa, sí. Pero el ser humano vive en sociedad, la vida en sociedad se regula mediante determinadas reglas que van desde leyes a protocolos más o menos explícitos, y creo que a estas alturas, todos deberíamos asumir que el adjetivo “social” aplicado al sustantivo “red” debería implicar algo más que lo que actualmente implica. Al menos, en el caso de Twitter…

 

IMAGE: Samuraitop - 123RFGoogle se ha encontrado con un serio problema en el Reino Unido, cuando de repente, el gobierno y algunos grandes anunciantes hicieron pública su decisión de interrumpir la publicidad institucional en YouTube debido a la aparición de anuncios gubernamentales en páginas de vídeos con contenidos calificables como de incitación al odio, racistas, antisemitas, extremistas o de mal gusto.

El problema, que ha obligado a la compañía a prometer controles más rigurosos en el etiquetado de ese tipo de contenidos, hace evidentes las carencias del esquema publicitario que más crece en la red: la publicidad programática o real-time bidding, en la que cada impacto proviene de un proceso de subasta en tiempo real de la audiencia supuestamente cualificada de una página.

La supuesta idea de hacer llegar el anuncio correcto a la persona adecuada y en el momento perfecto, administrada mediante un sistema que permite al más interesado formular el precio más elevado, choca con muchos problemas en su conversión en realidad. Y uno de ellos es tan claro y evidente como que los contenidos no pueden ser definidos únicamente por las audiencias que congregan, y menos aún si cualificamos a esas audiencias únicamente en función de unas pocas variables sociodemográficas. La realidad, como todos sabemos, es mucho más compleja que unas pocas variables.

En el caso de YouTube, resulta evidente que Google tiene un problema: las cifras que mueve, en torno a trescientas horas de vídeo recibidas y publicadas cada minuto que pasa, hacen imposible una supervisión manual: se calcula que serían necesarias unas cincuenta mil personas viendo vídeo constantemente durante ocho horas al día para poder llevarla a cabo. En su lugar, YouTube emplea un sistema de alertas basadas en herramientas para la comunidad de usuarios: cuando varias personas marcan un vídeo como ofensivo, este pasa a un sistema de supervisión manual que podría llevar a varias medidas, desde su eliminación total de la plataforma a su exclusión del sistema de publicidad, pasando por bloqueos locales, exclusión de determinadas audiencias, u otras posibilidades.

El problema para un gobierno o compañía no termina simplemente diciendo “yo no sabía nada” o “no tengo ni idea de en qué sitios sale mi publicidad”, porque aunque nadie tenga por qué asumir que una publicidad determinada suponga el estar de acuerdo con los contenidos de una página, la cuestión va mucho más allá de un simple problema estético: es que con la impresión publicitaria se está contribuyendo a financiar al creador del contenido. De ahí que la idea de que con dinero público o con los beneficios de una marca se estén aportando recursos a causas como el racismo, la xenofobia, el odio, el terrorismo o el antisemitismo, entre otras, resulte tan preocupante.

Por otro lado, la cualificación de los contenidos está lejos de ser el único problema de la publicidad programática. A medida que crece y se generaliza este mecanismo, se está dando lugar a un ecosistema en el que cunde la sensación de que “todo es mentira“: audiencias generadas a golpe de bots, cantidades crecientes de click fraud, reproducciones de vídeo simuladas o inexistentes, analíticas falseadas… hace algún tiempo, escribía en El Español sobre la necesidad de un reset para la industria de la publicidad en general: en muy poco tiempo, la red ha pasado de representar la promesa de un medio perfecto para alcanzar con nuestros mensajes publicitarios a las personas a las que más les pudiesen interesar, a convertirse en una especie de salón de los espejos en el que se fabrica tráfico, se compra tráfico, se vende tráfico y se simula tráfico. 

Una vez más, se cumple la regla general: una vez creado un ecosistema atractivo y sometido a un fuerte crecimiento, no tardan en aparecer aprovechados dispuestos a enturbiarlo, a timar a incautos y a destrozar su propuesta de valor. Nada nuevo bajo el sol.