IMAGE: Tumisu - PixabayEl ex-CEO de Google, Eric Schmidt, se aventura en una entrevista con CNBC a predecir un futuro en los próximos diez o quince años en el que la internet que conocemos se bifurcará en dos partes que se desarrollarán independientemente, una dominada por los Estados Unidos y la otra por China. La cuestión genera mucho interés debido no solo al contexto de la guerra comercial entre ambos países comenzada por Donald Trump, sino también por las recientes acusaciones de tácticas de espionaje agresivo de China contra compañías norteamericanas a través de LinkedIn o por las sucesivas limpiezas de miles de páginas web en China destinadas a mantener una internet controlada y limpia que rechace la vulgaridad y los contenidos potencialmente perjudiciales para la población.

En efecto, el último China Internet Report 2018 compilado por Abacus, 500 Startups y el South China Morning Post pinta un panorama dominado por protagonistas completamente diferentes a los que todos consideran sospechosos habituales fuera de China, con elementos característicos que no encontramos en ningún otro país como una ausencia total de respeto por la privacidad o un sistema de clasificación crediticia que interviene en prácticamente todos los aspectos de la vida cotidiana, y en una fase de desarrollo que ya ha superado completamente el simplemente adaptar ideas extranjeras a China y ha pasado a la siguiente, a la de exportar ideas desde China al mundo exterior.

Para muchos, China se ha convertido en el escenario en el que, debido a unas limitaciones gestionadas con total arbitrariedad y a una estrategia perfectamente delimitada por el estado, muchas cosas tienden a pasar más rápido que fuera de China: ¿quieres ver drones formando parte de esquemas de reparto logístico? Vete a China. ¿Smartphones siendo utilizados como forma universalmente aceptada de pago, identificación y todo lo necesario para la vida cotidiana? China es el lugar donde ir. Un número creciente de compañías, cuando quieren proporcionar una cierta experiencia de visión de futuro a sus directivos, los envían a China. La prestigiosa revista Foreign Affairs habla incluso de una internet del futuro dominada por China, mientras el gigante Google pugna por volver a China y por desarrollar un producto adaptado a la rígida legislación del gigante asiático porque eso podría, supuestamente, ser positivo para los usuarios mientras lucha con la resistencia al respecto de sus propios empleados

La gran pregunta, para mí, es hasta qué punto la predicción de Schmidt es realmente eso, una predicción de futuro. En muchos sentidos, tengo la impresión de que la balcanización de internet se produjo ya hace mucho tiempo, que si viajo a China e intento hacer las cosas que hago habitualmente no puedo hacerlo o tengo que pasar por vicisitudes cada día más complejas para ello, que ni yo utilizo prácticamente páginas web chinas – salvo cuando investigo al respecto – ni los usuarios chinos utilizan las de fuera de su país, y que además, no lo hacen no porque esas páginas estén censuradas, sino porque no tienen el menor interés en hacerlo. Desde hace mucho tiempo insisto a mis alumnos no solo chinos, sino también de algunos otros países como Rusia, como elementos muy particulares en el funcionamiento de internet, que el conocimiento de las herramientas, usos, costumbres y jugadores en su mercado es susceptible de constituir un activo muy interesante a la hora de trabajar en compañías que tengan esos mercados en su punto de mira, porque el nivel de especificidad ha alcanzado ya tal punto, que encontrar perfiles que de verdad sean capaces de tener una perspectiva multicultural y puedan gestionar adecuadamente esos entornos se ha vuelto sumamente complejo.

¿Existe realmente una sola internet? El factor idiomático es obviamente importante, a pesar del progreso de las herramientas de traducción, pero más allá de eso, han surgido elementos de desarrollo independiente que han convertido a esos países en prácticamente islas, en otras internets, en las que es necesario manejarse de otras maneras, con otros requisitos, con otros elementos y con otras reglas. Si no las conoces y tienes cierta soltura en su manejo, simplemente estás fuera. Creo que internet se balcanizó hace ya algún tiempo, y que si bien podremos tener casos de compañías chinas lanzando productos y servicios al exterior y posiblemente, aunque aislados, en sentido contrario, la realidad es que la internet que conocemos fuera de China y la de China son ya lugares muy diferentes, con cada vez menos elementos en común, y con una probabilidad de convergencia muy escasa. El sueño de una internet universal tal y como lo pensaron – o no – algunos de sus creadores se ha quedado en eso, en un sueño.

 

IMAGE: Jan Dyrda - Pixabay (CC0)Un par de artículos largos recientes en MIT Tech Review inciden en la búsqueda de explicaciones para la cada vez más acusada deriva de China para convertirse en el perfecto reflejo de la distopía de George Orwell en “1984“, y lo hacen con una explicación que encuentro, como mínimo, interesante y digan de consideración: la del marco de referencia.

¿Por qué resulta difícil entender China desde una mentalidad occidental? Porque. en muchos sentidos, los occidentales, particularmente desde la perspectiva de los países con cierta tradición democrática, entienden una serie de derechos y libertades como intrínsecos a la naturaleza humana, como prácticamente inalienables o irrenunciables. Podemos arrebatar a un occidental su derecho a la privacidad – y de hecho, está ocurriendo – pero no sin que surja una cierta resistencia o sea necesario poner en juego una serie de intercambios: de hecho, la renuncia a la privacidad es poco habitual que se haga de forma expresa, y sí en función de cuestiones como una mayor seguridad, el acceso a un producto deseable o considerado interesante de manera gratuita, la promesa de una apreciación social, etc.

Entender China y su coevolución con respecto a la tecnología implica entender su historia, sus estructuras sociales, el papel de elementos como la vigilancia y la monitorización a las que las personas se sometían entre sí, etc. Visto así, es posible que se pueda razonar que, en realidad, el creciente uso de las tecnologías asociadas con la monitorización en China hasta convertirla en ubicua no es una manera de avanzar en una distopía, sino una forma de hacer esa distopía menos injusta y de situar los castigos o las represalias por determinados comportamientos en el lugar adecuado. Si el tráfico en una gran ciudad china se considera un problema social importante, castigar a aquel que provoca que el tráfico sea mucho peor puede llegar a considerarse mejor que la alternativa de imponer castigos o restricciones a la totalidad por ello. En función de la referencia que tomemos, entender que el uso de los datos puede ayudar a construir una sociedad menos injusta es, como tal, una idea difícil de entender, pero no completamente disparatada, o al menos, digna de una cierta reflexión.

Si partimos de una óptica de sociedad democrática, incluso con todos los problemas intrínsecos a la democracia o a la interfaz entre democracia y tecnología que llevamos ya un tiempo discutiendo, entender que para un país como China, con todos sus condicionantes, el uso de arquitecturas masivas de procesamiento de datos aplicadas a las relaciones sociales puede llevar a una mejora del sistema de libertades es una idea provocativa que, sin duda, van a tener que explicarnos despacio, y cuyos peligros, en manos de una minoría dirigente, resultan evidentes. Pero si venías de un sistema en el que la democracia no solo no existía, sino que además, las normas se aplicaban de manera prácticamente imprevisible o arbitraria, el hecho de que pases a otro en el que, al menos, la relación con el estado proviene de lo que realmente has hecho o dejado de hacer, la situación puede entenderse, desde su perspectiva, como una mejora, aunque decirlo así pueda parecer una forma de justificar algo que, desde un punto de vista occidental, resultaría completamente injustificable y estaríamos siempre lejos de justificar.

En mi experiencia con estudiantes chinos, siempre me resultó difícil entender, por ejemplo, qué les llevaba a considerar que su situación era mejor teniendo acceso a Google, aunque fuese a una versión de Google censurada, que no teniéndolo, o por qué podía valer la pena renunciar al interés en determinados temas a cambio de una situación económica que evolucionaba de manera claramente ascendente. Es, simplemente, una cuestión de sistemas de referencia, de con respecto a qué comparas tu situación. Ahora, tenemos ya toda una generación en China que ha crecido sin tener acceso a herramientas y servicios como Google, Facebook o Twitter que en Occidente consideramos prácticamente ubicuas, utilizando otras que han llegado ahí para llenar el hueco dejado por éstas, pero sometidas a una fuerte censura.

Para entender China y la interfaz de una web con una presencia de China cada vez más ubicua hay que hacer algo más que aplicar clichés desde una óptica occidental: hay que ponerse en su contexto, pensar desde su situación, tener en cuenta sus circunstancias, y hacer un esfuerzo por no tomar como evidentes conceptos que no necesariamente lo son. Aunque a nosotros nos lo parezcan.

 

CCTV classroom¿Cómo van a ser las escuelas e instituciones educativas del futuro? Si hacemos caso a las tendencias que están surgiendo tanto en los Estados Unidos como en China, es posible que sean entornos bastante alejados de lo que muchos imaginan. De hecho, todo indica que podrían plantearse como escenarios de permanente monitorización, en los que los estudiantes estarán sometidos constantemente a vigilancia por parte de cámaras, algoritmos y todo tipo de tecnologías diseñadas para obtener información de manera constante a partir de todos los aspectos de su comportamiento.

Si hace no demasiado tiempo hablábamos del uso de la tecnología de reconocimiento facial en escuelas norteamericanas para prevenir episodios de violencia, y de la opinión contraria de las asociaciones de derechos civiles, que las consideraban inaceptables en un entorno escolar, ahora encontramos ya desarrollos de inteligencia artificial que monitorizan todo lo que los estudiantes teclean en sus ordenadores y tabletas con el fin de descubrir pautas de posibles episodios de violencia, bullying, suicidios u otros problemas.

En los Estados Unidos, este tipo de escenarios deriva de la aplicación de la Children’s Internet Protection Act (CIPA), que obliga a toda escuela que reciba fondos federales a mantener una política de seguridad para el uso de internet por parte de los alumnos, y que incluye la instalación de herramientas de monitorización en todos los equipos, tales como tabletas, ordenadores o Chromebooks, que las instituciones faciliten a sus estudiantes. Mientras algunas escuelas se limitan a la instalación de filtros para contenidos considerados inadecuados, otras prefieren recurrir a paquetes especializados como Gaggle, GoGuardian o Securly para tratar de descubrir escenarios potencialmente conflictivos a partir de toda la información suministrada por el usuario, tanto los sitios que visita y el uso general que hace del equipo, como incluso los contenidos que teclea. Otros compañías, como Hoonuit o Microsoft, han desarrollado algoritmos predictivos para analizar la probabilidad individual de abandono de los estudios, llevados por políticas que amparan la recolección prácticamente ilimitada de datos de los estudiantes desde los niveles educativos más elementales. 

Pero este tipo de tecnologías no están solas en el desarrollo de espacios sensorizados o monitorizados en el ámbito educativo: de cara al curso que viene, la Universidad de Saint Louis está llenando todos sus espacios comunes con dispositivos Echo Dot de Amazon, que permitirán a los estudiantes hacerles preguntas en cualquier momento, y contarán con repositorios para cuestiones relacionadas, por ejemplo, con instalaciones, horarios y otras preguntas habituales en el entorno universitario. Los dispositivos se ubicarán en zonas comunes, como aulas de trabajo, pero también en las habitaciones de los estudiantes que utilicen las residencias y apartamentos ofrecidos por la universidad, en lo que supone uno de los despliegues más grandes que se han diseñado para este tipo de dispositivos. Y, para muchos, un escenario de posible amenaza a la privacidad.

Microsoft ha adquirido y convertido en gratuita una herramienta, Flipgrid, para la creación de escenarios de discusión utilizando vídeo, siguiendo una tendencia que lleva a cada vez más institutos y universidades a posibilitar el uso de plataformas online como vehículo educativo que permitan un análisis más detallado y riguroso de todo el proceso participativo. Los comentarios que antes se quedaban en una discusión en clase, ahora serán almacenados y procesados individualmente, lo cual no tendría que ser necesariamente malo, pero podría también contribuir al desarrollo de ese entorno de monitorización y control permanente en lo que todo lo que el estudiante hace, dice o piensa pasa a formar parte de un archivo permanente que lo caracteriza.

En China, algunos institutos están empezando a utilizar la monitorización facial de los alumnos en clase ya no para obtener su identidad, sino para detectar sus actitudes en cada momento. En una escuela en Hangzhou, por ejemplo, tres cámaras en la clase escanean las caras de los estudiantes para tratar de detectar su estado de ánimo, clasificarlo entre sorpresa, tristeza, antipatía, enojo, felicidad, temor o neutro, registrarlo y promediarlo durante cada clase. Además, el crecimiento en el uso de herramientas de machine learning para la corrección de exámenes permite obtener de manera automática datos sobre el desempeño, e incluso, detectar cuándo los estudiantes copian. En algún momento, podríamos incluso pensar en la adopción por parte de las instituciones educativas de herramientas de monitorización de la actividad cerebral, ya en uso en el ejército y en algunas compañías chinas.

En Francia, más conocida en este momento por la prohibición de llevar smartphones al colegio que entrará en vigor en este curso, hay al menos un instituto privado católico en París que ha decidido obligar a sus estudiantes a llevar un dispositivo Bluetooth para controlar su presencia y evitar que falten a clase, so pena de ser multados con diez euros cada vez que lo olviden en casa o lo pierdan.

¿Qué tipo de escenarios podemos esperar para la educación en el futuro? ¿Tecnologías pensadas para maximizar el aprendizaje y crear entornos agradables, o un adelanto de distopía que prepare a los jóvenes para una sociedad de monitorización constante y permanente en la que se encontrarán, gracias a su educación, como peces en el agua? Podemos justificarlo como forma de mejorar el rendimiento académico, como intentos de mejorar la seguridad y de intentar evitar determinados peligros, como una manera de preparar a los alumnos para los entornos profesionales en los que van a desempeñar su futuro profesional, o de muchas otras formas, pero el caso es que este tipo de noticias están proliferando, y están cambiando de manera muy rápida la imagen de la educación en países tan diferentes como los Estados Unidos, China o Francia. Soy un convencido del poder de la analítica de cara a la mejora de los procesos educativos, pero creo que sería importante tener una discusión informada acerca de su uso e implicaciones de cara a cuestiones como la privacidad, la seguridad o la disciplina, si queremos evitar que muchas decisiones que se disponen a condicionar el futuro de la sociedad sean tomadas de facto, sin un proceso de reflexión adecuado.

 

Privacy - AppleAyer fue el turno de Apple para comparecer ante una comisión parlamentaria del Congreso de los Estados Unidos encargada de llevar a cabo una investigación sobre las prácticas relacionadas con la privacidad de las compañías tecnológicas, concretamente con respecto a posibles prácticas destinadas a rastrear a los usuarios o sus interacciones con sus terminales sin su conocimiento o consentimiento.

A partir de la comparecencia de Mark Zuckerberg el pasado abril, la comisión ha ido citando a todas las grandes compañías tecnológicas para tratar de hacerse una idea de la situación de la privacidad en ese entorno. Alphabet no ha proporcionado información sobre su comparecencia, pero Apple sí lo ha hecho, con todo lujo de detalles incluyendo una transcripción completa, y lo ha hecho por una buena razón: no tiene nada que esconder. La comparecencia no ha dejado ninguna revelación preocupante sobre sus prácticas con respecto a la privacidad, y sí la sensación de que como dijo el compareciente, Timothy Powderly, Director de Asuntos relacionados con el Gobierno Federal, “la filosofía y el enfoque de Apple con respecto a los datos de los clientes difiere de muchas otras compañías en este importante tema”.

La filosofía de la compañía continúa con el espíritu delineado en su momento en la carta de Tim Cook al respecto, y mantiene la idea de la privacidad como derecho fundamental que aparece en la página de la compañía:

“We believe privacy is a fundamental human right and purposely design our products and services to minimize our collection of customer data. The customer is not our product, and our business model does not depend on collecting vast amounts of personally identifiable information to enrich targeted profiles marketed to advertisers.”

(“Creemos que la privacidad es un derecho humano fundamental, y diseñamos deliberadamente nuestros productos y servicios para minimizar los datos que recopilamos de nuestros clientes. El cliente no es nuestro producto, y nuestro modelo de negocio no depende de la recopilación de grandes cantidades de información personal para construir y enriquecer perfiles para los anunciantes.”)

Así de sencillo: vendemos productos, no información: llevamos tiempo haciéndolo, nos va bien así – somos la empresa más valiosa de todo el mercado – y no tenemos planes para cambiar de modelo. Si usas un iPhone, el terminal no graba el audio mientras escucha los comandos de activación de Siri, y Siri no comparte las palabras pronunciadas con ningún otro servicio ni tercera parte. La aplicación solo escucha cuando un mensaje en la pantalla indica que lo está haciendo, y solo si el usuario ha proporcionado específicamente acceso al micrófono para ello. Las respuestas a las preguntas de los usuarios se envían a Apple de forma anónima y encriptada, y esos datos anónimos no se utilizan en ningún caso para la segmentación publicitaria. A diferencia de lo que ocurre con otros servicios similares, que asocian y almacenan declaraciones históricas de voz de manera identificable, las emisiones de Siri se vinculan a un identificador de dispositivo generado aleatoriamente, no con el identificador de Apple del usuario, y ese identificador se puede restablecer en cualquier momento simplemente desactivando y activando Siri y Dictado, con lo que los datos asociados con él también desaparecen.

El posicionamiento radical de la compañía, que la ha llevado incluso a resistirse ante el FBI, puede dar lugar a algunas reflexiones interesantes. La primera, que Apple vende productos con un posicionamiento de precios elevado, y que por tanto, en la sociedad actual, la privacidad está disponible para aquellos que estén dispuestos a pagar por ella un precio determinado. La segunda, que la compañía presenta esa defensa de la privacidad, además de como un principio fundamental, como un elemento claramente diferencial con respecto a otras compañías, por el que espera obtener, supuestamente, una preferencia de los consumidores. Una preferencia que, de hecho, podría verse perjudicada si las posibilidades de personalización o de aplicación de algoritmos dependientes de los datos personales se limitan a su vez, como de hecho está ocurriendo con el progreso de Siri frente al de otros asistentes de voz. Incluso en estos casos, Apple parece opinar que el riesgo de ofrecer productos más limitados en ese sentido vale la pena frente al que supondría la posible violación de la privacidad de sus clientes. Para quien no esté dispuesto a pagar ese dinero extra o para quien quiera prestaciones más avanzadas y basadas en un mayor nivel de personalización, la privacidad se reduce en función de lo que otras compañías le puedan permitir dentro de modelos de negocio basados precisa y fundamentalmente en la explotación de esa privacidad.

La explotación de los datos se ha convertido en el gran negocio del siglo XXI. Pero todo indica que Apple ha decidido quedarse al margen de él.

 

FB after-hours fall 26-07-2018 - Google FinanceLa presentación de resultados trimestrales de Facebook ayer miércoles mostraba claramente que el ritmo de crecimiento en la incorporación de usuarios a su red y los ingresos por publicidad estaba siendo menos de lo esperado, en el contexto de lo que seguramente podemos definir como un período horrible para una compañía que ha estado constantemente presente en las noticias debido a numerosos escándalos. La consecuencia ha sido una fuerte caída en el precio de la acción en el horario extendido del mercado, que ha llegado a suponer hasta 125,000 millones en su capitalización, una caída inédita que sigue a lo que era, justo antes de la presentación de resultados, su máximo histórico, y que muchos interpretan no solo como una señal de que la compañía no es intocable, sino incluso como una fuerte alerta para la totalidad del mercado.

Por supuesto, ninguna compañía es intocable, y la caída de las acciones de Facebook es, sin duda, importante. Sin embargo, creo que es importante poner las cosas en contexto. Indudablemente, Facebook está pasando por una importante serie de problemas de crecimiento: la red social más grande del mundo se ha dado cuenta, y además en muchos casos demasiado tarde, de que se había convertido en la mayor herramienta de del mundo para campañas políticas que, sin ser ilegales, sí permitían niveles de manipulación enormemente personalizados, escalables a segmentos significativos de la población, y nunca vistos hasta ahora. Se ha visto implicada en la difusión de noticias que han provocado efectos gravísimos, desde linchamientos hasta éxodos masivos, y convertida en uno de los mayores canales por los que circulan las llamadas fake news, noticias falsas creadas para manipular la opinión pública. Ha sido llamada a declarar ante comisiones parlamentarias en los Estados Unidos y en Europa, y en muchos sentidos, se ha cumplido lo que decía aquel profético artículo que afirmaba, cuando sabíamos tan solo la mitad de la mitad de lo que ahora sabemos,  que ni el mismísimo Mark Zuckerberg era capaz de entender en lo que Facebook se había convertido. Sin duda, este es el año en el que uno de los mayores fenómenos de difusión tecnológica de la historia del mundo, en el que participan ya de manera habitual 2,230 millones de personas y 1,470 millones de manera diaria, se ve confrontada con algunos de los efectos de esa difusión, como la pérdida de control sobre la privacidad de los usuarios, la circulación incontrolada de noticias falsas, e incluso una pérdida insostenible de la normalidad democrática.

Toda herramienta que pasa de ser utilizada únicamente en un campus a serlo por un porcentaje importantísimo de toda la población mundial es susceptible de experimentar procesos de este tipo. Que la compañía haya respondido a la aparición de esos efectos, que responden a procesos de ensayo y error llevados a cabo a lo largo del tiempo por numerosos actores que van desde simples delincuentes hasta gobiernos enteros pasando por todo tipo de organizaciones, compañías o agencias, con una mezcla de ingenuidad e irresponsabilidad, es algo que indudablemente queda en el pasivo de Mark Zuckerberg: estaba demasiado ocupado ganando dinero como para preocuparse de los lugares de los que venía o los efectos que tenía. Y esa irresponsabilidad fue continua durante mucho tiempo, hasta que finalmente, este año, la compañía ha afirmado que invertirá enormes esfuerzos en cambiar esa evolución. ¿Es Facebook creíble en ese sentido? No especialmente, pero una de las cosas que claramente dijo cuando se comprometió a ello es que esos esfuerzos tendrían un coste en el crecimiento de la compañía. Y efectivamente, así ha sido.

Pero volvamos al contexto: la caída en la valoración de las acciones de Facebook es impresionante, sí, y un auténtico escenario de pesadilla para cualquier inversor. Pero en el conjunto de la evolución del valor de la compañía desde su salida a bolsa en mayo de 2012, esa caída es un pequeño bache, menor incluso que varios que ha sufrido anteriormente. La compañía no ha perdido usuarios ni dinero: ha ganado nada menos que 22 millones de usuarios diarios, y ha ingresado 13,200 millones de dólares… lo que ocurre es que esos 22 millones de usuarios palidecen frente a los números que incorporaba anteriormente (el trimestre anterior, sin ir más lejos, incorporó 49 millones), y esos 13,200 millones están algo por debajo de los 13,400 que los analistas esperaban. ¿Malo? Sin duda. Pero por otro lado, ninguna compañía puede crecer de manera ilimitada y al mismo ritmo: hay 3,000 millones de personas en el mundo con acceso a internet, y Facebook llega a 2,230 millones de ellas, algo sencillamente impresionante. Por supuesto, eso no significa que la compañía no tenga problemas si, como parece estar ocurriendo, su base de usuarios envejece, pero adquisiciones con bases sociodemográficas de usuarios mucho más amplias, como WhatsApp o Instagram, parecen estar cubriendo esas bases notablemente bien.

¿Queremos que Facebook corrija los problemas que tiene, que no son exactamente problemas de Facebook sino, más bien, derivados de la naturaleza humana? Por supuesto, pero es que no es algo sencillo. Sus planes para controlar el uso de su red para la difusión de noticias falsas son sin duda ambiciosos, pero si pensamos que la compañía debería hacer más o tomar partido ante determinados temas o ideologías, es recomendable que, como mínimo, tengamos en cuenta las posibles consecuencias si efectivamente ocurre aquello que pedimos. Podemos – y debemos, además – pedir a Facebook que incorpore más controles sobre la privacidad de los usuarios y que permitan decidir el tipo de publicidad que queremos ver, pero servirá de poco si eso no se acompaña de educación a esos usuarios para que, de una manera responsable, hagan uso de esos controles. Los controles de privacidad de Facebook, de hecho, no eran pocos, y permitían a los usuarios tomar decisiones sobre una amplia cantidad de cuestiones relacionadas con sus datos, pero cuando llegas a 2,230 millones de usuarios, esperar que de verdad entiendan esos controles o se pongan a tomar decisiones mínimamente informadas sobre cada posible circunstancia relacionada con su privacidad es una expectativa bastante poco realista.

¿Va a caer Facebook? No. Podrá ralentizar algo su crecimiento, podrá ver cómo se satura el mercado disponible o podrá ver cómo sus esfuerzos por incorporar más niveles de control de una manera razonable y que no lo convierta en un juez universal, que han significado ya la incorporación de varios miles de personas a la plantilla, restan brillantez a sus resultados. Se trata de un proceso normal en compañías que universalizan su servicio: Google experimentó y sigue experimentando importantes problemas derivados del hecho de que su motor de búsqueda se haya convertido en una herramienta utilizada de manera prácticamente universal en casi todo el mundo, y Facebook los sufre por haberse convertido en la plataforma social que utilizan habitualmente el 75% de las personas conectadas en el mundo, que se dice pronto. ¿Futuro sombrío? No lo creo. Pero sí un escenario sensiblemente más complejo que el que creía tener hasta el momento, y sin duda, una llamada de atención para sus gestores. La paciencia de los usuarios y los inversores no es ilimitada, y las disculpas, como todo, tienen un límite.