IMAGE: Public DomainFacebook anuncia la desactivación de un entramado de páginas, grupos y cuentas implicadas en eso que se ha dado en llamar coordinated unauthentic behavior, esquemas de manipulación colectiva destinados a cambiar la actitud de determinados grupos de personas en procesos electorales, esta vez originadas fundamentalmente en Irán y Rusia, al hilo de una investigación desarrollada en una empresa de seguridad, FireEye. Inmediatamente, y utilizando las conclusiones de la misma investigación, tanto Twitter como YouTube anuncian acciones sobre un número de cuentas y canales implicados en el mismo esquema dirigidos a varios cientos de miles de personas, y evidencian una escalada en los procesos de manipulación electoral, en este caso dirigidos a las elecciones al Parlamento norteamericano, impulsados desde gobiernos extranjeros. 

Europa mira este tipo de procesos y la supuesta credulidad norteamericana con una mezcla de escepticismo y de preocupación: en realidad, tanto Irán como Rusia llevan tiempo practicando este tipo de tácticas en procesos de todo tipo, desde elecciones generales hasta referendums como el del Brexit, y previamente, en varios procesos electorales en ex-repúblicas soviéticas. Las técnicas son ya conocidas: polarizar la opinión pública utilizando todo tipo de temas, sean las vacunas o la inmigración: todo vale con tal de dinamizar bolsas de votantes previamente inactivas que, por la razón que sea, son estimuladas para participar y manipuladas para que crean que esa participación es fundamental para evitar algún tipo de terrible amenaza.

Las compañías tecnológicas, convertidas de facto en supuestos guardianes de la democracia, se reúnen para evaluar estrategias conjuntas y compartir experiencias. Lo que comenzamos a comentar en las elecciones presidenciales norteamericanas tras la inesperada victoria de un Donald Trump que probablemente termine entre rejas, se ha convertido ya en una evidencia a voces: gobiernos de países con nula tradición democrática, que se dedican a organizar auténticos ejércitos en la red que generan miles de cuentas, grupos y páginas que simulan movimientos organizados en los países cuyos procesos electorales pretenden desestabilizar o manipular. Sea elegir a un presidente poco presidenciable que ridiculice la democracia del país, simular un enorme soporte al lado más desestabilizador de un referendum o provocar una decisión inesperada: todo vale con tal de cuestionar la democracia no desde el punto de vista de “un hombre, un voto”, sino desde el de convertir en representativas opciones que no lo eran, que no contaban con una legitimidad más allá de lo que la hipérbole y la manipulación consigan darle.

Cuando empezamos a hablar de este tema, muchos decían que no podía ser y que además era imposible. Que no se era posible influir hasta tal punto ni de manera tan decisiva en procesos electorales, y que, en realidad, se estaba tratando de buscar explicaciones para resultados que podían ser, de alguna manera, naturales. No era cierto: esos procesos no solo están manipulados, sino que lo están desde unos principios de psicología y de entendimiento de las redes sociales completamente nuevos, sin precedentes, en función del micro-targeting que las redes sociales permiten. Un auténtico ataque a las bases de la democracia, orquestado precisamente desde países no democráticos. De cara a las elecciones al Parlamento norteamericano del próximo noviembre, hay quien dice que el daño ya está hecho y que ya es demasiado tarde, pero es posible que no sea así. Y en cualquier caso, hablamos de procesos que vamos a ver en cada una de las elecciones o referendos que los países democráticos vayan a mantener en los próximos meses, hasta que las redes y herramientas sociales hayan sido capaces de desarrollar procedimientos para identificar, neutralizar o hacer más difíciles esos movimientos organizados de manipulación. La democracia no es perfecta, pero sin duda, no es tan mala como algunos quieren que parezca.

Ellos contra nosotros. Autócratas y teócratas, contra demócratas. Tiempos complicados.

 

IMAGE: Ahmed Gad - Pixabay (CC0)Una de las tareas más complejas para un profesor de innovación en nuestros días es lograr que sus alumnos visualicen las posibilidades de una tecnología determinada y logren proyectarlas hacia el futuro, para entender el tipo de innovaciones específicas a las que darán forma. Y sin duda, dentro de los desarrollos difíciles de explicar, tanto por su concepto como por sus infinitas posibilidades y aplicaciones, está el machine learning.

Para cualquier directivo, curiosamente, el primer problema importante para pensar en posibles proyectos de machine learning es ser capaz de definir los objetivos. Si bien podría parecer que definir objetivos es una tarea fácil, hacerlo de manera mínimamente realista o valorando las posibilidades de la herramienta resulta mucho más difícil si, como suele ser el caso, desconoces esa herramienta o te aproximas a ella con un montón de apreciaciones erróneas. Por eso me ha parecido interesante pensar en una entrada en la que describiese algunos de los recientes proyectos en los que se ha aplicado machine learning desde una óptica práctica, por si pueden servir de inspiración, o para entender algunos de los cambios que vamos a vivir en distintos aspectos de nuestras vidas en los próximos pocos años.

¿Qué elementos hacen falta para un proyecto de machine learning? Fundamentalmente, datos. Podríamos escribir mucho sobre las características de esos datos, la estructura que deben tener o su preparación, que, de hecho, suele representar el grueso del trabajo de este tipo de proyectos, pero dejaremos eso para una entrada posterior más detallada. Hoy vamos a hablar de ejemplos prácticos:

  • Eliminar entradas en redes sociales que promuevan el discurso del odio y la desinformación: un proyecto llevado a cabo por Facebook y definido como una prioridad absoluta trata de, en el contexto de Birmania, localizar posts que promuevan la violencia hacia la comunidad rohinyá. Una tarea enormemente difícil dada la versatilidad del lenguaje humano y las infinitas posibilidades que pueden utilizarse para promover el odio, pero en la que la compañía cuenta con un tesoro: miles de entradas anteriores en las que se puede demostrar un papel activo en la difusión de ese tipo de mensajes. A partir de ahí, simplemente para poder generar datos con los que alimentar al algoritmo, la compañía ha contratado a sesenta personas, con planes de llegar hasta un total de cien antes de final de año, expertas en los idiomas hablados en el país – en Birmania se hablan, además del idioma oficial, que hablan dos tercios de la población, aproximadamente cien idiomas – y les pide que etiqueten esas entradas en función de sus características. Según Mark Zuckerberg, el algoritmo tardará entre cinco y diez años en entregar resultados completamente fiables, pero cuando lo haga, tendrá una utilidad enorme para la red social, cuyo papel había sido fuertemente cuestionado en este escenario. Actualmente, Facebook calcula que el algoritmo es capaz de detectar el 52% de las entradas con potencial para contribuir a violencia o daño físico inminente, antes de que empiecen a ser reportadas proactivamente por los usuarios de la red social. 
  • De nuevo en Facebook, otra aplicación intrínseca a su actividad: reconocer fotografías en las que una persona aparece con los ojos cerrados, y ser capaz de mostrarlas con los ojos abiertos. Es un problema habitual en fotografías de grupo, y sin duda, si alguien cuenta con ejemplos de ese tipo, esa es Facebook: alguna de las personas aparece con los ojos cerrados. A partir de ahí, el algoritmo debe localizar más fotografías de esa persona, teniendo en cuenta el ángulo, la iluminación y otras características, y ser capaz de insertarlos en la fotografía original de manera que el resultado sea realista. Tarea para una Generative Adversarial Network (GAN), dos redes neuronales que compiten entre sí, una generando imágenes, y otra juzgando su nivel de realismo, utilizando las fotografías de la persona con los ojos abiertos como objetivo en términos de realismo.
  • Otra aplicación de Facebook, pero en este caso no relacionada con su actividad: conseguir que las resonancias magnéticas, pruebas diagnósticas que habitualmente son relativamente largas, puedan llevarse a cabo en pocos minutos, reduciendo así el nivel de estrés y la incomodidad para los pacientes y permitiendo que el material se amortice más rápido al incrementar el número de pruebas diagnósticas que pueden llevarse a cabo en una jornada. En este caso, hablamos de una aplicación no relacionada con la actividad de la compañía y que esta, de hecho, pretende liberar como código abierto, porque su interés es progresar en técnicas para el entrenamiento de algoritmos. ¿Donde está, en este caso, la clave? En conseguir los datos adecuados para ello. La compañía, por tanto, se alía con NYU, cuya clínica tiene un archivo de diez mil resonancias magnéticas convenientemente anonimizadas, y mediante deep learning, adiestra a un algoritmo para reconocer la disposición de los huesos, músculos, ligamentos y otros componentes del cuerpo humano. . Una vez que se construye este modelo, lo que la máquina tiene que hacer es reconocer las diferencias con la imagen real, de manera que reconozca cualquier anomalía.
  •  Google y la refrigeración de los centros de datos: hace algunos años, la refrigeración era uno de los principales centros de coste de todo centro de datos. En los más modernos, su impacto se ha reducido hasta un 10%, pero aún así, sigue representando un ahorro potencial importante. El problema es claro; obtener unas condiciones de temperatura y humedad adecuadas, tratando de combinar los recursos con los que se cuenta de una manera óptima, sea mediante la circulación de aire o agua exteriores, ventilación, aireación o, en último término, aire acondicionado. Para ello, se recurre al reinforcement learning, un algoritmo que permite ver qué acciones debe escoger un agente de software en un entorno dado con el fin de maximizar una función determinada, en este caso, el gasto en electricidad. Existe un nivel de supervisión humana que permite ver si las opciones tomadas por el algoritmo son excesivamente arriesgadas, pero en este momento, el algoritmo ya está obteniendo ahorros de en torno al 40%
  • De nuevo Google, en una aplicación de imagen médica similar a la anteriormente citada en el caso de Facebook: examinar imágenes oculares obtenidas mediante tomografía de coherencia óptica (OCT), con el fin de detectar posibles problemas. Los OCT no son pruebas complejas, son relativamente rápidas, pero el problema está en que, hasta el momento, tenían que ser analizadas por una persona, lo que introducía un importante elemento de colapso y una fuente de errores. La compañía forma un equipo con la clínica especializada británica Moorfields Eye Hospital, que analiza en torno a mil imágenes de este tipo cada día, y diseña un proceso en dos etapas: una red neuronal de segmentación, que convierte la exploración OCT en bruto en un mapa de tejidos tridimensionales con segmentos de color claramente definidos y detecta hasta cincuenta posibles enfermedades, entrenada con 877 imágenes segmentadas manualmente por oftalmólogos, y una segunda red de clasificación, que analiza el mapa tridimensional de tejidos  y toma decisiones diagnósticas sobre el tipo de enfermedad y la urgencia del tratamiento. Esta segunda red fue entrenada mediante 14,884 mapas de tejidos producidos por la red de segmentación, que fueron revisados por oftalmólogos y optometristas. El proceso resultante es ya capaz de mejorar la eficiencia en el diagnóstico de los equipos médicos humanos.
  • Otras aplicaciones de detección de cáncer: de nuevo, aplicaciones de caracterización de imágenes médicas desarrolladas por equipos de distintos lugares, capaces de reconocer ya con niveles de acierto muy razonables, cánceres de piel (95% de acierto frente al 87% de un equipo de 28 dermatólogos), de próstata, de cabeza y cuello, tumores colorrectales y de mama.
  • Detección de desastres naturales: Microsoft ha desarrollado una herramienta capaz de utilizar imágenes aéreas de alta definición y reconocer algorítmicamente en ellas objetos como canales, árboles, campos, caminos y edificios para, combinados con las lecturas de los sensores meteorológicos, poder predecir, planificar y llevar a cabo la preparación de cara a posibles inundaciones. A medida que los algoritmos van trabajando con mapas de más zonas, aprenden a reconocer más objetos  – árboles de diversos tipos, edificios, etc. – y su aplicación se hace más fiable.
  • Y mi favorito personal, por razones obvias: un algoritmo capaz de evaluar exámenes de tipo ensayo, que trabaja tanto en chino como en inglés, y que, para cada examen, es capaz de desarrollar una base de conocimiento para interpretar la lógica general y el significado de lo que el alumno pretende expresar, y que, en pruebas en 60,000 instituciones académicas con un total de 120 millones de alumnos, coincidió con las evaluaciones asignadas por los profesores en un 92% de los casos. Y además, mejora a media que evalúa más exámenes. ¿Qué podría hacer con mi tiempo si no tuviese que dedicarlo a evaluar exámenes, sin duda la parte de nuestro trabajo que más tiempo nos quita a los profesores y que más odiamos?

Simplemente, unas cuantas noticias recopiladas entre mayo, junio, julio y lo que llevamos de agosto. Una mínima muestra, pero intentando cubrir distintos aspectos y aplicaciones, y pensando en que podamos llegar a intuir algunas de las infinitas posibilidades de una tecnología en la que aún estamos rascando la superficie y que, sin duda, va a cambiar el mundo tal y como lo conocemos – de hecho, lo está cambiando ya.

 

IMAGE: Stuart Hampton - Pixabay (CC0)Según una reciente encuesta de Gallup y la Knight Foundation, el 85% de los norteamericanos piensan que las plataformas sociales no hacen suficiente para combatir la difusión de las noticias falsas, y la mayoría adscriben a estas plataformas la responsabilidad sobre la veracidad del contenido.

Como ya he comentado en numerosas ocasiones, el problema de las noticias falsas no está en las plataformas sociales, sino en los usuarios, y concretamente, en su ausencia de pensamiento crítico. La falta de pensamiento crítico es lo que lleva a una persona a creerse una noticia simplemente “porque la ha visto en Facebook”, porque “le ha llegado por WhatsApp” o porque “es el primer resultado en Google”, del mismo modo que el deseo de obtener notoriedad o apreciación social es lo que le lleva no solo a creérsela, sino además, a compartirla con sus amigos. En la práctica, lo que un porcentaje elevadísimo de norteamericanos están diciendo con esta encuesta no es ni más ni menos que “somos demasiado estúpidos para usar internet, y demandamos a las plataformas sociales que nos protejan”.

No, el problema no son las noticias falsas, y las plataformas sociales no pueden proteger a los usuarios de sí mismos. Proteger a alguien que es demasiado estúpido para protegerse a sí mismo es un problema, porque impide que Darwin actúe como debería. Durante toda la historia de la humanidad, hemos tenido herramientas que permitían que una persona accediese a información: hace años que disponemos de bibliotecas, pero como requerían de un cierto esfuerzo para informarse en ellas, mantenían suficientemente alejados de manera natural a los que eran demasiado estúpidos como para utilizarlas. Internet, sin embargo, pone toda la información a un clic de distancia de cualquier persona, y con ello, permite que cualquiera, incluso aquel que es demasiado estúpido como para racionalizar mínimamente lo que está leyendo, acceda a ella. En ese sentido, las redes sociales deberían evitar ser utilizadas como herramientas de manipulación masiva, deberían intentar identificar estrategias destinadas a promover la viralización de determinados mensajes y deberían, como ya están intentando hacer, tratar de eliminar mensajes que inciten a la violencia o al odio, pero no pueden – ni deben – convertirse en jueces de lo que circula por ellas. Son, simplemente, un canal, con algunas reglas que deberían ser lo más transparentes que sea posible. En gran medida, el papel de protegerse contra la desinformación, las noticias falsas o las estafas tiene que recaer, nos pongamos como nos pongamos, en los usuarios.

Una estafa es una estafa, y quien la lleva a cabo es un estafador. Y la ley cuenta con mecanismos para proteger a las personas de los estafadores, aunque pueda ser que la universalidad de internet convierta esa posible persecución en ocasiones en un verdadero reto. Pero ¿qué debemos hacer con el enésimo estúpido que responde a un correo electrónico de un supuesto dictador nigeriano que le pide sus datos bancarios porque le asegura que le va a transferir muchos miles de millones de dólares? ¿De verdad puede alguien pensar que la responsabilidad sobre eso corresponde a una herramienta de correo electrónico, a la compañía que la gestiona, o a la red social a través de la cual le llega ese mensaje? ¿No sería más correcto y factual asumir que esa persona era, sencillamente, demasiado estúpida como para utilizar internet? Lo que deberíamos hacer no es bramar contra internet y sus actores, sino, sin renunciar a perseguir, lógicamente, a quien lo haya estafado, intentar que ese usuario adquiera educación para que no vuelva a cometer errores de ese tipo, y entienda de una vez por todas que las cosas que son demasiado bonitas para ser verdad es, sencillamente… porque no son verdad.

La solución, lógicamente, no es intentar construir “una internet a prueba de estúpidos”, sino educar a los usuarios para que aprendan que no todo lo que leen en Facebook, lo que aparece como resultado en una búsqueda de Google o lo que les llega por WhatsApp es necesariamente cierto. El problema, por supuesto, es que para muchos, las mentiras más falaces y evidentes son ni más ni menos que lo que quieren creer, aquello de lo que han decidido convencerse a sí mismos o incluso, en muchos casos, de lo que aspiran a convencer a los demás: lo hemos visto en numerosas ocasiones, cuando una red social etiqueta una noticia como falsa, y miles de estúpidos corren a difundirla más aún, retroalimentada con eso de “lo que Facebook no quiere que leas”. Y las noticias falsas ni siquiera son patrimonio de internet o de las redes sociales: muchos medios tradicionales, como periódicos o televisiones, participan también en su difusión, en busca de la noticia fácil, de la generación de atención a toda costa, o, por qué no, intentando crear estados de opinión en el público que consideren coherentes con su línea editorial. Lo único que internet y las redes sociales han hecho es disminuir las barreras de entrada a la publicación: ahora, cualquiera puede convertirse en un medio de comunicación, del mismo modo que cualquiera con suficientes medios puede simular una audiencia de cierto tamaño que se escandaliza con un tema determinado o que aparenta un fuerte apoyo a unas ciertas tesis.

Pedir a las redes sociales que sean transparentes con respecto a sus procedimientos, que intenten impedir procesos de manipulación o que intenten limitar la difusión de mensajes que inciten al odio puede ser adecuado. Pero centrar el problema de las noticias falsas en el canal es un grave error, porque la gran verdad es que la verdadera responsabilidad está en los usuarios. Podremos, a lo largo de una generación y si nos ponemos seriamente a ello, construir sistemas educativos que se centren en reforzar el pensamiento crítico, que no tomen como verdad nada por el simple hecho de que esté escrito en un libro, en una pantalla o que lo hayamos visto en un vídeo. Pero negar la responsabilidad del usuario es como obligarnos a etiquetar un microondas con una pegatina de “no lo utilice para secar a su mascota” por si a algún imbécil se le ocurre meter a su gato dentro y después, además, va y nos denuncia: un recordatorio permanente de que algunas personas son demasiado estúpidas ya no para usar un microondas, sino para vivir en sociedad. Y por supuesto, para usar internet.

 

IMAGE: CC BY-SA 3.0 Nick Youngson - Alpha Stock ImagesFacebook anuncia que ha descubierto y presuntamente desmantelado un intento de manipulación dirigido a las próximas elecciones norteamericanas a Congreso y Senado, un total de 32 páginas que, en lo que la compañía denomina un “comportamiento no auténtico coordinado”, habían publicado un total de 9,500 entradas de manera coordinada con 150 campañas publicitarias, con un gasto total de 11,000 dólares, y generando unos 30 eventos desde mayo de 2017. En total, unas 290,000 cuentas seguían al menos una de las páginas, orientadas fundamentalmente a fomentar el enfrentamiento en torno a temas raciales.

Sinceramente, creo que la denominación “coordinated unauthentic behavior” que Facebook otorga a este tipo de campañas de manipulación merece una cierta reflexión. Tengo pocas dudas de que el hecho de que un actor determinado se dedique a crear todo tipo de herramientas, páginas de diversos tipos, cuentas falsas para hacerlas crecer y parecer más importantes de lo que realmente son, campañas publicitarias extremadamente segmentadas para inflamar los ánimos de determinados colectivos, o eventos para crear conciencia de grupo en torno a ciertos temas supone, como tal, una amenaza a la democracia. Estoy seguro de que el hecho de que ese tipo de procesos de manipulación colectiva sean detenidos empleando para ello todos los medios posibles es algo positivo, un esfuerzo que vale la pena hacer, y un claro ejemplo de explotación maliciosa de una herramienta social. Permitir que ese tipo de actores siguiesen utilizando este tipo de metodologías para manipular el voto de los ciudadanos me parecería un desastre para la democracia, por mucho que algunos afirmen que la manipulación, en realidad, no es nada nuevo, que antes se llevaba a cabo mediante los medios de comunicación tradicionales o que cada uno es libre de dejarse influenciar por lo que buenamente quiera a la hora de decidir su voto.

Sin embargo, y a pesar del evidente interés de proteger la democracia frente a procesos de manipulación fraudulentos… ¿estamos seguros de que ese esfuerzo debe corresponder a compañías como Facebook, Twitter u otras que han sido precisamente protagonistas de esos primeros ejemplos claros de manipulación? ¿Realmente estamos en buenas manos si encargamos la protección de la democracia y su funcionamiento razonablemente genuino a este tipo de compañías? No me refiero a que no puedan hacerlo: sin duda, son las mejor situadas para detectar este tipo de fraudes o plantearse neutralizarlos, pero… ¿debe ser ese realmente el papel de las empresas privadas? Hablamos de compañías cada vez más poderosas, cuyo dominio no se ha visto prácticamente ni alterado por la reciente oleada regulatoria o intentos de control por parte de los gobiernos de distintos lugares del mundo, y cuyos objetivos corporativos se establecen en torno a magnitudes como el crecimiento, la facturación o los beneficios, no de elementos como la protección de la democracia o la preservación del equilibrio social. Ese tipo de objetivos corresponden, de manera natural, a las instituciones que la sociedad construye para supervisar su funcionamiento, a eso que denominamos administración y que se construye a distintos niveles, con unas ciertas reglas y sometida a un cierto equilibrio entre poderes y contrapoderes. Subcontratar esa vigilancia y supervisión a compañías privadas, y precisamente a las compañías que, con su previo historial de ingenuidad y falta de vigilancia, lo hicieron posible ya en una triste serie de ejemplos supone, a mi entender, un problema.

De nuevo: estas compañías, como creadoras y gestoras precisamente del sistema que los manipuladores utilizan para llevar a cabo sus campañas, están en la mejor situación para ser quienes patrullen y pongan bajo control esas iniciativas. Pero una buena parte de la coordinación de ese esfuerzo, seguramente, debería estar no tan solo a cargo de personas adscritas a esas compañías, sino de oficiales públicos dedicados a ejercer ese papel de refuerzo o garante de los procesos democráticos. Fundamentalmente, porque las compañías, y consecuentemente, las personas contratadas y pagadas por ellas, tienen otros objetivos prioritarios, y podrían hipotéticamente sostener múltiples tipos de conflictos de interés relacionados con esa función.

Por otro lado, diseñar una estructura que permitiese a oficiales públicos trabajar con las redes sociales para proteger la democracia podría suponer un nivel de supervisión y control que esas compañías no estuviesen dispuestas a aceptar, o ser visto como una posible injerencia del estamento político sobre la actividad de las empresas privadas. De hecho, en algunos países con democracias menos consolidadas, podría incluso terminar actuando al revés de lo esperado, como un organismo que se dedicase a impedir la expresión de movimientos políticos genuinos en las redes calificándolos como “comportamientos no auténticos coordinados”, al tiempo que se intentan proteger, por contra, los de las campañas organizadas por el gobierno de turno.

Sin duda, un problema multifactorial complejo, y una pregunta que queda en el aire: ¿a quién corresponde o debe corresponder, en plena era de la comunicación electrónica, las redes sociales y la ultrasegmentación, la protección de los procesos democráticos y la prevención de la manipulación masiva?

 

Twitter fall July 27 2018 - Google FinanceTras la fuerte caída de un 18% en el valor de Facebook hace dos días, ayer fue Twitter la que, tras presentar resultados trimestrales, experimentó una evolución negativa en su cotización que alcanzó el 21% y que, por el momento, continúa su descenso en el horario de mercado extendido.

La compañía publicó unos resultados en los que mostraba un beneficio récord por tercer trimestre consecutivo, concretamente 134 millones de dólares equivalentes a 13 centavos por acción, 17 centavos por acción tras ajustes, frente a una estimación consensuada por los analistas de 16 centavos. Los ingresos de Twitter subieron un 24% hasta los 710.5 millones de dólares, dos millones de dólares por encima de las estimaciones. Hasta aquí, todo habría indicado un buen trimestre. Sin embargo, la compañía presentó una caída de un millón de usuarios hasta los 355 millones debido a la fuerte limpieza de perfiles falsos, bots y trolls que la compañía está llevando a cabo, que fue valorada por los analistas como una supuesta indicación de ralentización del crecimiento, y fuertemente penalizada.

¿Tiene sentido penalizar fuertemente el valor de una compañía por llevar a cabo un proceso de limpieza que la lleva, según todas las indicaciones, a ser una compañía mejor? Que Twitter tome la decisión de priorizar la calidad de su red frente a su tamaño es, por puro sentido común, un movimiento en la buena dirección, una indicación de que, por fin, se ha decidido a tomarse en serio los que todos decían que eran sus principales problemas, una inversión a futuro en una red más sana, con un crecimiento más saludable y más sólido. De hecho, los números son, a todas luces, impresionantes: la compañía se ha pasado los meses de mayo y junio suspendiendo más de un millón de cuentas al día, y sin embargo, en el global del trimestre, únicamente ha perdido alrededor de un millón con respecto al trimestre anterior, lo que prueba, en realidad, un fuerte crecimiento. Pero dado que los analistas ven un número de usuarios que desciende en un millón, interpretan que el crecimiento se ralentiza, y la compañía cae más de un 20% en su valor: ¿tiene sentido? ¿Puede de verdad ser tan limitada la inteligencia del mercado, como para no ver lo que es tan obvio, una compañía en crecimiento y que, además, invierte esfuerzos en tener un producto de mucha mejor calidad?

¿Qué prefiere el mercado? ¿Una compañía que reporta a cualquier precio números más elevados, aunque en realidad todos sepamos que eran falsos, usuarios inexistente, bots creados en granjas para simular perfiles falsos y llenar la red de basura? ¿Es esa la lectura que debemos hacer de la capacidad del mercado para evaluar la salud y las expectativas de una compañía? ¿Debe Twitter valer un 20% menos tras la gestión llevada a cabo durante este trimestre? No, sencillamente no tiene sentido ninguno, y no solo es irracional: es además revelador de un profundo simplismo, rayano en la estupidez profunda. ¿En qué medida puede ser mejor preferir un crecimiento irracional, absurdo y basado en premisas falsas, frente a uno razonablemente saludable?

Que Twitter elimine a las legiones de bots que lo poblaban y se decida a tomar acción contra los trolls es una decisión que únicamente puede ser calificada como positiva: es lo que muchísimos usuarios y analistas reclamábamos a la compañía desde hacía mucho tiempo, porque la alternativa era la consolidación de un clima insostenible que estaba echando a muchos usuarios y convirtiendo a muchos otros en pasivos, en lurkers que únicamente observan, pero no participan por miedo a un clima de agresividad absurdo. Tras muchos años de no hacer nada en función de una libertad de expresión mal entendida, Twitter comienza a mostrar su disposición a resolver ese problema con lo que parecen las medidas adecuadas, sabiendo que no se enfrenta a una tarea fácil, que va a tener un coste, pero que alguien debe de llevarla a cabo por el bien de todos. Y de hecho, en el primer trimestre que incluye esos cambios en la gestión, la compañía prueba que puede crecer en facturación y beneficios, que los anunciantes valoran positivamente las medidas, que el producto vídeo crece con buenas expectativas, y que es capaz, incluso, de incorporar suficientes usuarios como para compensar por una parte importantísima de los que ha eliminado en su limpieza. ¿Tiene sentido que, precisamente en ese momento, se castigue a la compañía con una caída de más del 20% de su cotización? La respuesta es clarísima: no, no tiene ningún sentido, y por pura y aplastante lógica, esa caída en la valoración se corregirá a medida que la compañía pruebe que puede mantener su crecimiento y que los usuarios manifiestan un nivel mayor de satisfacción.

Las medidas valientes pueden tener, a veces, consecuencias complicadas si el mercado no es capaz de valorar lo que realmente valen y el recorrido real que pueden llegar a tener. La caída de la cotización de Twitter de ayer prueba que el mercado, en efecto, puede ser profundamente simplista y, en ocasiones, reducir la complejidad de una decisión a un simple parámetro, y además, mal interpretado. Muy posiblemente, incluso, afectado por la caída de Facebook, en un contexto absurdo de penalización de compañías que, aunque se dediquen a actividades parecidas, no tienen absolutamente nada que ver. Pero para la dirección de Twitter, a pesar de levantarse esta mañana con unas acciones que valen supuestamente mucho menos, las cosas deberían estar claras: es el momento de seguir por el buen camino.