IMAGE: Karen Roach - 123RF

Según Twitter, apoyándose en datos generados internamente, sus esfuerzos para combatir el acoso y el abuso en su red están finalmente dando sus frutos.

Las declaraciones de la compañía contrastan con las de un buen número de usuarios que afirman, con capturas y ejemplos de tweets que incurren en este tipo de conductas, que la compañía salda de forma sistemática un número significativamente elevado de reclamaciones con afirmaciones de que “no viola las reglas de la compañía”.

El asunto en discusión es tan sencillo como la definición de acoso o abuso en un contexto social. Según Twitter, algo es acoso no cuando el afectado lo denuncia, sino cuando alguien, dentro de Twitter, lo examina, lo juzga, y emite su veredicto. Según Twitter, ellos son los jueces inapelables de lo que constituye acoso o abuso en su red, y la opinión de los denunciantes de tales conductas no cuenta en absoluto. Visto así, ese tipo de contestaciones, que hace algunos años tuve la ocasión de recibir yo mismo, son un recurso sencillo y barato para la compañía, que puede decidir qué comportamientos son constitutivos de acoso y abuso y cuáles no, y reportar las cifras que le vengan en gana sobre la reducción de esos comportamientos en su red.

El problema de erigirse en juez inapelable sobre lo que es acoso o abuso es que, en realidad, eso no es lícito en absoluto. En un contexto social, la única persona que puede juzgar si un comportamiento constituye acoso o abuso es el afectado. Si un afectado afirma estar siendo objeto de acoso o abuso, ese acoso o ese abuso automáticamente deben pasar a existir. El acoso o el abuso son problemas esencialmente subjetivos: alguien puede acosar a otra persona simplemente insistiendo en un tema determinado, aunque lo haga con unos modales perfectos. Los límites de ese acoso o abuso, en ese sentido, podrían llegar a marcarse en función de las características de la víctima: los personajes públicos, por su visibilidad, podrían estar en cierto sentido obligados a aceptar determinados niveles de acoso o abuso, o en particular aquellos que fuesen relevantes con respecto a las razones por las que poseen esa visibilidad. Así, preguntar insistentemente a un político por un caso de corrupción difícilmente podría ser conceptualizado como acoso, pero hacer lo mismo con un ciudadano anónimo con respecto a una factura supuestamente impagada sí podría serlo. La clave, desde mi punto de vista, está en la dimensión social.

Otro elemento evidente estaría, muy posiblemente, en la fuerza empleada: no es lo mismo que alguien insulte a otra persona desde una cuenta con pocos seguidores, posiblemente anónima y carente de credibilidad alguna, que el que ese insulto sea dirigido desde una cuenta con una trascendencia elevada, con un gran número de seguidores o con una visibilidad relevante. La dimensión social añade a cuestiones como el acoso o el abuso una serie de variables que es preciso tener en cuenta a la hora de emitir una opinión sobre su naturaleza.

Pero el principal problema, desde mi punto de vista, estriba en la naturaleza de la cuestión: un comportamiento no es constitutivo de acoso o abuso “porque lo diga Twitter”, sino porque lo diga el afectado. ¿Podría esta política de tolerancia cero ser utilizada por algunas personas para suprimir determinadas actitudes que, en términos estrictamente judiciales, podrían ser considerados lícitos? Posiblemente, pero es que precisamente en eso está la cuestión: la conversación en un contexto social no puede judicializarse, no puede convertirse en un estrado sin juez ni leyes establecidas, y mucho menos puede ser Twitter, parte interesada, quien pretenda erigirse en juez. En un lado está el contexto social, con sus propias reglas marcadas, fundamentalmente, por las normas de la buena educación y otros consensos sociales generalmente aceptados , y en otro lado completamente separado están los tribunales que juzgan delitos como la injuria, el acoso o la difamación. Son niveles diferentes, y Twitter nunca debería, desde mi punto de vista, entrar en el juego de considerarse juez. Lo que Twitter tendría que hacer, de nuevo desde mi punto de vista estrictamente personal, es tomar todas las reclamaciones de acoso o abuso y procesarlas debidamente con arreglo a una serie de protocolos, que pueden incluir desde el borrado del tweet y la advertencia al infractor, hasta la eliminación de la cuenta y la adopción de medidas de exclusión. La única manera de mantener una red social libre de elementos nocivos como el acoso o el abuso es con una política de tolerancia cero.

Mientras esa política de tolerancia cero, mientras el objeto de acoso o abuso no sea quien determine si un comportamiento lo es o no lo es, los datos que Twitter ofrezca sobre los resultados de sus acciones en ese sentido carecerán de toda credibilidad. Pero una vez más: hablamos de un asunto sensible, en el que mi sensibilidad además se acrecienta por haberlo sufrido personalmente, y en el que, obviamente, puede haber opiniones en otros sentidos.

 

Las políticas de moderación de Facebook, una guerra que no pueden ganar de Denken Über

Por primera vez se hacen públicas las políticas internas de moderación de Facebook, no por voluntad propia sino porque The Guardian hizo un gran trabajo publicándolas y explicándolas justo en momentos donde la red social está en la línea de fuego por el contenido que se publica constantemente y mi primer impresión es que están librando una guerra imposible de ganar.

¿Como marcar efectivamente que es bueno y que es malo cuando se generan unos 1.500 millones de “comentarios + fotos + status” al día?

Facebook está en una lucha donde casi 2.000 millones de usuarios tienen diferentes opiniones, educación y límites morales, donde podemos estar de acuerdo en que hay cosas intrínsecamente malas pero donde la decisión debe ser casi instantánea ¿un ejemplo? creo que es casi imposible reaccionar en menos de 10 segundos desde que una pieza de revenge porn se publica hasta que se extiende… y además ¿como definís una política global capaz de definir que es publicable y que no?

politica de porno de venganza
Definitivamente una definición vaga e inaplicable

Pero si es límite es dificil de “definir” para crear una política accionable ¿como definís una política donde la violencia es peligrosa o es simplemente “permisible” como discurso? ¿en base a la violencia intrínseca? ¿en base a la “credibilidad” de la frase? ¿del contexto? esta es una batalla realmente casi increíble… donde incluso los ejemplos oficiales son un desastre: “Someone shoot Trump” es no-permisible pero permitís explicar que: “To snap a bitch’s neck, make sure to apply all your pressure to the middle of her throat” ridículo.

violencia aceptable en facebook

Entiendo que la violencia verbal es, muchas veces, resultado de la frustración personal pero la frase de como aplicar presión es simplemente inaceptable.

En definitiva, creo que esta filtración es necesaria para entender como funcionan las políticas de Facebook pero muestra tres cosas a primera vista:

  • Es imposible moderar con la velocidad que necesita una plataforma con este alcance.
  • Las políticas deberían ser públicas para que se pueda “crear conjuntamente” o al menos ser “opinables” de forma pública.
  • La inteligencia artificial no puede, al menos ahora, entender contexto, ironía, intención, etc.

Mientras tanto conviviremos con definiciones como “We do not action photos of child abuse. We mark as disturbing videos of child abuse. We remove imagery of child abuse if shared with sadism and celebration.”

IMAGE: Redrockerz - 123RFUno de los principales problemas que redes como Twitter han experimentado a lo largo de los años es, como hemos comentado ya en bastantes ocasiones, su gestión del problema del acoso y el insulto.

Desde su fundación, Twitter intentó plantearse como una herramienta que hacía una defensa militante y maximalista de la libertad de expresión, lo que terminó por generar un entorno en el que era precisamente esa supuesta libertad de expresión la que se veía coartada por las reacciones de usuarios con comportamientos nocivos.

A lo largo del tiempo, ese ambiente nocivo le ha costado a Twitter grandes disgustos, desde un crecimiento menor de lo esperado, a un predominio creciente de comportamientos pasivos (lurking) frente a activos, e incluso a comprometer su futuro provocando que otras compañías dejasen de plantearse posibles ofertas de adquisición derivadas de las dinámicas venenosas existentes en la plataforma.

Tras múltiples intentos de corrección de estas dinámicas, muchos de los cuales son en realidad auténticas “tácticas de avestruz”, formas de ocultar el acoso a los ojos del acosado como si eso lo hiciese supuestamente desaparecer, ahora Twitter se plantea algo nuevo: una colaboración con IBM para que sea su sistema de machine learning, Watson, quien detecte, a través del estudio de patrones conversacionales, posibles situaciones de acoso y comportamientos abusivos, incluso antes de que sean denunciados.

¿Es posible que una inteligencia artificial detecte actitudes como el acoso o el abuso verbal? La cuestión no parece sencilla, porque hablamos de situaciones que van desde el insulto directo, que podrían ser detectadas simplemente con el uso de un diccionario, hasta otras mucho más complejas en las que se hace uso de la ironía, de los dobles sentidos, o de elementos no presentes en la conversación a los que se hace referencia de manera velada como insinuaciones, o a veces ni eso. Acosar a alguien puede incluir dinámicas muy complicadas, a veces incluso retorcidas, y utilizar patrones que van desde lo más sencillo a lo más alambicado.

¿A favor de Twitter? Cuenta posiblemente con uno de los mejores archivos online de comportamientos abusivos denunciados como tales. A lo largo de sus ya once años de historia, la compañía se ha visto envuelta en todo tipo de escándalos de elevada visibilidad y en una amplísima variedad de situaciones infinitamente menos conocidas que han afectado a usuarios de todo perfil y condición, con desenlaces conocidos. Para la compañía, resulta perfectamente posible estudiar en su inmenso archivo toda situación en la que determinadas actitudes hayan sido denunciadas como acoso, insulto, bullying, sexismo, incitación al odio, etc. e incluso etiquetar perfiles en función de su inclinación a exhibir ese tipo de comportamientos. Ese tipo de datos son precisamente lo que un algoritmo de machine learning necesita para ser entrenado correctamente, considerando que la semantización y el análisis del lenguaje humano ya son llevados a cabo algorítmicamente de manera más que satisfactoria. Obviamente, esto aún no incluye todo: algunas situaciones, como el uso de imágenes, pueden resultar algo más difíciles de procesar, pero en modo alguno representan algo que, a día de hoy, esté fuera de las capacidades de una inteligencia artificial, o en ultimo término, algo que puede recibir ayuda puntual de evaluadores humanos a la hora de determinar si efectivamente se trataba de una situación de ese tipo.

¿Puede Watson convertirse en el juez que determina si el comportamiento de un usuario debe ser considerado nocivo? Como afectado en algunos momentos por comportamientos de ese tipo que vio, además, cómo Twitter se lavaba las manos e incluso contribuía a empeorar aquella situación considerada por muchos como algo “simpático” y digno incluso de ser premiado, creo que sí, que el machine learning puede aportar un sistema que permita, cuando menos, etiquetar ese tipo de comportamientos, tipificarlos y permitir una gestión adecuada de los mismos, como también es muy posible que pueda colaborar en la detección de otro patrón habitual: la gestión de múltiples identidades y la apertura inmediata de otra cuenta para proseguir con el comportamiento nocivo cuando la primera cuenta es eliminada.

¿Existe algún tipo de conflicto entre un sistema así y la libertad de expresión? Todo depende de cómo queramos definir la libertad de expresión. Si consideramos que una red social debería servir para que todos podamos decir todo lo que se nos pase por la cabeza sin ningún tipo de freno o cortapisa, sí. Pero el ser humano vive en sociedad, la vida en sociedad se regula mediante determinadas reglas que van desde leyes a protocolos más o menos explícitos, y creo que a estas alturas, todos deberíamos asumir que el adjetivo “social” aplicado al sustantivo “red” debería implicar algo más que lo que actualmente implica. Al menos, en el caso de Twitter…

 

The Exorcist (1973)Dos interesantes artículos hoy hacen referencia a experiencias que han resultado ser exitosas a la hora de eliminar de determinados servicios problemas como las noticias falsas o las dinámicas de acoso e insulto.

Por un lado, Fusion publica What GitHub did to kill its trolls, una pieza larga y detallada sobre cómo la mayor plataforma de publicación y colaboración para software de código abierto del mundo fue capaz de conjurar un problema de dinámicas nocivas de interacción que amenazaba con convertir en muy incómoda la interacción en la página, que en el año 2014 llevaba ya algún tiempo viendo abandonos de usuarios que manifestaban quejas de trolling, bullying, machismo, abuso, acoso e insultos.

¿La receta? Equipos de gestión creados con personas de orígenes muy diversos, con muy diferentes sensibilidades con respecto a los distintos temas, y muy comprometidos con su labor, con la idea no tanto de crear nuevas normas de conducta, sino de detectar todos los resquicios del funcionamiento del sitio que permitían o incluso fomentaban la aparición de ese tipo de dinámicas. Una respuesta muy diferente a la tomada por redes como Twitter, en las que esas dinámicas no son tristemente la excepción sino la norma, y que como mucho, llegan a ofrecer a los usuarios herramientas para que puedan llevar a cabo la absurda “estrategia del avestruz”, para poder ocultarse a sí mismos las dinámicas abusivas, pretendiendo aquello de “si no puedo ver el problema, ya no existe”.

En el segundo artículo, titulado Why Snapchat and Apple don’t have a fake news problem, Buzzfeed especula sobre las razones por las que determinadas plataformas de consumo de noticias, como Apple News o Snapchat Discover, no tienen los problemas derivados de la publicación de noticias falsas que sí sufren otras como Facebook. La respuesta, en este caso, parece clara: un nivel de control y supervisión mucho más rígido y manual, una aprobación particularizada de cada una de las fuentes, y mecanismos de interacción que no tienden tanto a premiar lo social entendido como acumulación de Likes, de follows o de algoritmos que puedan ser manipulados, sino mediante reglas mucho más sencillas, como la exposición cronológica.

No hablamos de casos aislados o poco importantes cuantitativamente: Snapchat, con sus 150 millones de usuarios diarios, supera ya en 10 millones de usuarios activos a redes como Twitter, y obtiene importantes ingresos gracias a Discover, la plataforma de compartición de noticias en la que muchísimos usuarios fundamentalmente adolescentes, que resultan muy difíciles de alcanzar para la mayoría de los medios, leen noticias de una serie de publicaciones que pasan por un riguroso proceso de admisión y control. No hablamos de un sistema en el que grupos de adolescentes macedonios puedan dedicarse a ganar un dinero generando noticias falsas que se convierten en virales, ni donde publicaciones de dudosa reputación puedan inyectar noticias completamente falsas e inventadas, sino de un sitio con reglas serias donde el derecho de admisión está claramente señalizado y tiene un coste, en absoluto trivial. En el caso de Apple News, hablamos de 70 millones de usuarios activos y de contenido disponible de más de 4,000 publicaciones, pero en la que el acceso está regulado por el miso tipo de reglas rígidas y conocidas que gobiernan la tienda de aplicaciones de la compañía: incumple las normas, y te verás rápidamente excluido.

¿De qué estamos hablando? Claramente, la responsabilidad de gestionar una plataforma debe ir bastante más allá de la posibilidad de crearla técnicamente. Si no aplicamos principios de gestión claros e inequívocos, el destino es el que es: caer víctimas de algo tan imparable como la mismísima naturaleza humana. Los problemas de las plataformas, en realidad, no lo son tanto de las plataformas como de sus usuarios, que necesitan aparentemente estar sujetos a procesos de control y supervisión que eviten que salga a la superficie lo peor de su naturaleza. Y para evitarlo, aparecen mecanismos como el control y la supervisión, expresados a través de distintos sistemas que van desde el trabajo de equipos de moderación, hasta el desarrollo de barreras de entrada. El primer caso, Github, termina por resultarme mucho más atractivo debido al componente democrático que posee: cualquier persona puede crear un proyecto en la plataforma, sin ningún tipo de limitación, y los problemas únicamente surgen si esa persona entra en dinámicas de comportamiento abusivo, momento en el que se encontrará con el equipo de gestión de la comunidad. En el caso de Apple o Snapchat, el mecanismo me resulta menos interesante: que las cosas funcionen mejor cuando las barreras de entrada son más elevadas, y como tales barreras, dejen fuera a muchos que podrían posiblemente generar contribuciones valiosas, me parece una manera de tirar al niño con el agua del baño, aunque indudablemente esté siendo capaz de probar su buen funcionamiento.

Lo que no cabe duda es que mecanismos de este tipo, en distintas combinaciones, son cada día más necesarios para gestionar plataformas en la red, y el estudio de casos como estos puede probarse muy valioso a la hora de pensar sobre ese fenómeno. El sueño buenista de una red completamente abierta y sin limitaciones a la participación ha llegado a un punto en el que, al encontrarse con lo peor de la naturaleza humana, ha terminado por probar sus numerosas limitaciones. Triste, pero desgraciadamente real.

 

Twitter, los 'trolls' y el futuro incierto de la red social del pajarito - Cinco Días

Marimar Jiménez, de Cinco Días, me envió algunas preguntas por correo electrónico con el fin de documentar un artículo sobre los problemas de Twitter con los trolls y el hate speech al hilo de los últimos cambios introducidos por la compañía en ese sentido, y ayer viernes publicó su artículo titulado “Twitter, los trolls y el futuro incierto de la red social del pajarito” (en pdf).

Mi opinión sobre la enésima batería de cambios introducidos por Twitter es que siguen sin entender absolutamente nada. Desarrollar nuevas herramientas para que los usuarios ofendidos puedan bloquear y ocultar a quienes les ofenden no es válido: equivale a proponer a aquellos que son acosados que adopten la estrategia del avestruz, que piensen eso de que si no lo ven no les va a doler. Completamente absurdo, y rayano en lo insultante. Proponer nuevas herramientas para denunciar abusos es igualmente tonto, porque basta con un único sistema, claro, sencillo y fácilmente accesible.

Lo único que funciona aquí es adiestrar a los empleados encargados en Twitter para que aprendan a reconocer las dinámicas abusivas e insultantes, y actúen con la mano dura suficiente como para poner en la maldita calle de forma inmediata e inapelable a todos aquellos que incurran en ellas, con el fin de eliminar radicalmente la sensación de impunidad que existe en la red del pájaro azul desde sus primeros tiempos. Solo ese tipo de medidas, planteadas de una manera suficientemente radical y con el sentido común adecuado para separar la simple ironía o la opinión de los insultos y el acoso, pueden contribuir a erradicar las actuales dinámicas que tanto perjudican a Twitter como ecosistema.

A continuación, el texto completo de las preguntas que intercambié con Marimar:

P. Hoy Twitter ha anunciado que pone en marcha una batería de herramientas para combatir los abusos, intimidación, insultos y acoso.  Este tipo de  comportamientos inhiben a las personas de participar en Twitter, pero hasta que punto esta afectando este problema en el negocio de Twitter?

R. Junto con la dificultad para cristalizar un modelo de negocio viable, la gestión del llamado “hate speech” es el problema más importante al que se enfrenta Twitter actualmente. La vocación de la compañía por evitar todo aquello que pueda evocar algún tipo de censura ha devenido en el desarrollo de un entorno en el que todas las normas socialmente aceptadas de etiqueta o educación se ignoran de manera sistemática, y en donde la violencia verbal, el insulto o el acoso se han convertido en dinámica habitual. El resultado nos muestra un problema directamente derivado de la naturaleza humana: las normas de educación y los protocolos sociales están para evitar que la convivencia social acabe en bofetadas, y Twitter, al decidir no controlar este tipo de comportamientos, se ha convertido en un ring de boxeo permanente. Twitter ha evolucionado hasta ser un entorno donde a cualquiera le parece normal publicar un insulto, utilizar la ironía de manera descarnada o jalear al gallito que se mete con otro, que encuentra en esos likes, retweets y followers añadidos un auténtico refuerzo positivo de su conducta, como el corro que rodea al matón que golpea a un niño en el colegio. Esto convierte a Twitter en un ambiente hostil, y destruye con ello la principal propuesta de valor del servicio como pulso de la actualidad, como ventana a la que asomarse para mantenerse en contacto con los temas que uno decide seguir. A nadie le gusta asomarse cada poco tiempo a un estercolero.

P. ¿Está provocando esta situación que muchas empresas no quieran poner su publicidad en esta Red social?

R. La evolución de las dinámicas de agresividad es uno de los problemas de Twitter a la hora de captar anunciantes: pocas empresas se arriesgan a que una acción publicitaria acabe generando un ruido creciente de insultos, ironías mal entendidas o comentarios que si fuesen hechos directamente en la calle, merecerían sin ninguna duda un puñetazo. Si cada vez que intentas comunicar con potenciales clientes aparecen unos cuantos a criticarte, a insultarte y a descalificarte, el entorno se hace menos amigable a la actividad publicitaria. Por otro lado, el compromiso con una publicidad no molesta y no intrusiva lleva a que algunas compañías, seguramente de manera equivocada, opten por canales en los que poseen mayor libertad. Lo más optimista es pensar que Twitter terminará siendo capaz de rentabilizar la ingente cantidad de información que genera en forma de algún modelo de segmentación mejor o de panel de información permanente sobre el mercado, pero por el momento, a pesar de varias adquisiciones en ese sentido, la compañía ha sido bastante lenta en la ejecución.

P. ¿Conoces alguna compañía que haya decidido no estar en Twitter por esta razón? ¿Está dentro de Twitter, en su naturaleza de libertad de expresión, el verdadero talón de Aquiles de la compañía?

R. Por el momento, la única compañía que ha comentado específicamente que el mal ambiente en Twitter no era compatible con su imagen limpia y familiar ha sido Disney, que se planteó la adquisición porque le ayudaba a complementar su panorama mediático, pero la descartó rápidamente. Que una compañía con capacidad financiera más que sobrada para adquirirte decida de repente que no lo hace porque eres un nido de trolls es una cuestión muy, muy seria. Si Twitter no toma medidas verdaderamente eficientes para cambiar ese incómodo elemento de su cultura de uso, es muy posible que tenga serios problemas de viabilidad en el futuro.