IMAGE: Jan Dyrda - Pixabay (CC0)Un par de artículos largos recientes en MIT Tech Review inciden en la búsqueda de explicaciones para la cada vez más acusada deriva de China para convertirse en el perfecto reflejo de la distopía de George Orwell en “1984“, y lo hacen con una explicación que encuentro, como mínimo, interesante y digan de consideración: la del marco de referencia.

¿Por qué resulta difícil entender China desde una mentalidad occidental? Porque. en muchos sentidos, los occidentales, particularmente desde la perspectiva de los países con cierta tradición democrática, entienden una serie de derechos y libertades como intrínsecos a la naturaleza humana, como prácticamente inalienables o irrenunciables. Podemos arrebatar a un occidental su derecho a la privacidad – y de hecho, está ocurriendo – pero no sin que surja una cierta resistencia o sea necesario poner en juego una serie de intercambios: de hecho, la renuncia a la privacidad es poco habitual que se haga de forma expresa, y sí en función de cuestiones como una mayor seguridad, el acceso a un producto deseable o considerado interesante de manera gratuita, la promesa de una apreciación social, etc.

Entender China y su coevolución con respecto a la tecnología implica entender su historia, sus estructuras sociales, el papel de elementos como la vigilancia y la monitorización a las que las personas se sometían entre sí, etc. Visto así, es posible que se pueda razonar que, en realidad, el creciente uso de las tecnologías asociadas con la monitorización en China hasta convertirla en ubicua no es una manera de avanzar en una distopía, sino una forma de hacer esa distopía menos injusta y de situar los castigos o las represalias por determinados comportamientos en el lugar adecuado. Si el tráfico en una gran ciudad china se considera un problema social importante, castigar a aquel que provoca que el tráfico sea mucho peor puede llegar a considerarse mejor que la alternativa de imponer castigos o restricciones a la totalidad por ello. En función de la referencia que tomemos, entender que el uso de los datos puede ayudar a construir una sociedad menos injusta es, como tal, una idea difícil de entender, pero no completamente disparatada, o al menos, digna de una cierta reflexión.

Si partimos de una óptica de sociedad democrática, incluso con todos los problemas intrínsecos a la democracia o a la interfaz entre democracia y tecnología que llevamos ya un tiempo discutiendo, entender que para un país como China, con todos sus condicionantes, el uso de arquitecturas masivas de procesamiento de datos aplicadas a las relaciones sociales puede llevar a una mejora del sistema de libertades es una idea provocativa que, sin duda, van a tener que explicarnos despacio, y cuyos peligros, en manos de una minoría dirigente, resultan evidentes. Pero si venías de un sistema en el que la democracia no solo no existía, sino que además, las normas se aplicaban de manera prácticamente imprevisible o arbitraria, el hecho de que pases a otro en el que, al menos, la relación con el estado proviene de lo que realmente has hecho o dejado de hacer, la situación puede entenderse, desde su perspectiva, como una mejora, aunque decirlo así pueda parecer una forma de justificar algo que, desde un punto de vista occidental, resultaría completamente injustificable y estaríamos siempre lejos de justificar.

En mi experiencia con estudiantes chinos, siempre me resultó difícil entender, por ejemplo, qué les llevaba a considerar que su situación era mejor teniendo acceso a Google, aunque fuese a una versión de Google censurada, que no teniéndolo, o por qué podía valer la pena renunciar al interés en determinados temas a cambio de una situación económica que evolucionaba de manera claramente ascendente. Es, simplemente, una cuestión de sistemas de referencia, de con respecto a qué comparas tu situación. Ahora, tenemos ya toda una generación en China que ha crecido sin tener acceso a herramientas y servicios como Google, Facebook o Twitter que en Occidente consideramos prácticamente ubicuas, utilizando otras que han llegado ahí para llenar el hueco dejado por éstas, pero sometidas a una fuerte censura.

Para entender China y la interfaz de una web con una presencia de China cada vez más ubicua hay que hacer algo más que aplicar clichés desde una óptica occidental: hay que ponerse en su contexto, pensar desde su situación, tener en cuenta sus circunstancias, y hacer un esfuerzo por no tomar como evidentes conceptos que no necesariamente lo son. Aunque a nosotros nos lo parezcan.

 

CCTV classroom¿Cómo van a ser las escuelas e instituciones educativas del futuro? Si hacemos caso a las tendencias que están surgiendo tanto en los Estados Unidos como en China, es posible que sean entornos bastante alejados de lo que muchos imaginan. De hecho, todo indica que podrían plantearse como escenarios de permanente monitorización, en los que los estudiantes estarán sometidos constantemente a vigilancia por parte de cámaras, algoritmos y todo tipo de tecnologías diseñadas para obtener información de manera constante a partir de todos los aspectos de su comportamiento.

Si hace no demasiado tiempo hablábamos del uso de la tecnología de reconocimiento facial en escuelas norteamericanas para prevenir episodios de violencia, y de la opinión contraria de las asociaciones de derechos civiles, que las consideraban inaceptables en un entorno escolar, ahora encontramos ya desarrollos de inteligencia artificial que monitorizan todo lo que los estudiantes teclean en sus ordenadores y tabletas con el fin de descubrir pautas de posibles episodios de violencia, bullying, suicidios u otros problemas.

En los Estados Unidos, este tipo de escenarios deriva de la aplicación de la Children’s Internet Protection Act (CIPA), que obliga a toda escuela que reciba fondos federales a mantener una política de seguridad para el uso de internet por parte de los alumnos, y que incluye la instalación de herramientas de monitorización en todos los equipos, tales como tabletas, ordenadores o Chromebooks, que las instituciones faciliten a sus estudiantes. Mientras algunas escuelas se limitan a la instalación de filtros para contenidos considerados inadecuados, otras prefieren recurrir a paquetes especializados como Gaggle, GoGuardian o Securly para tratar de descubrir escenarios potencialmente conflictivos a partir de toda la información suministrada por el usuario, tanto los sitios que visita y el uso general que hace del equipo, como incluso los contenidos que teclea. Otros compañías, como Hoonuit o Microsoft, han desarrollado algoritmos predictivos para analizar la probabilidad individual de abandono de los estudios, llevados por políticas que amparan la recolección prácticamente ilimitada de datos de los estudiantes desde los niveles educativos más elementales. 

Pero este tipo de tecnologías no están solas en el desarrollo de espacios sensorizados o monitorizados en el ámbito educativo: de cara al curso que viene, la Universidad de Saint Louis está llenando todos sus espacios comunes con dispositivos Echo Dot de Amazon, que permitirán a los estudiantes hacerles preguntas en cualquier momento, y contarán con repositorios para cuestiones relacionadas, por ejemplo, con instalaciones, horarios y otras preguntas habituales en el entorno universitario. Los dispositivos se ubicarán en zonas comunes, como aulas de trabajo, pero también en las habitaciones de los estudiantes que utilicen las residencias y apartamentos ofrecidos por la universidad, en lo que supone uno de los despliegues más grandes que se han diseñado para este tipo de dispositivos. Y, para muchos, un escenario de posible amenaza a la privacidad.

Microsoft ha adquirido y convertido en gratuita una herramienta, Flipgrid, para la creación de escenarios de discusión utilizando vídeo, siguiendo una tendencia que lleva a cada vez más institutos y universidades a posibilitar el uso de plataformas online como vehículo educativo que permitan un análisis más detallado y riguroso de todo el proceso participativo. Los comentarios que antes se quedaban en una discusión en clase, ahora serán almacenados y procesados individualmente, lo cual no tendría que ser necesariamente malo, pero podría también contribuir al desarrollo de ese entorno de monitorización y control permanente en lo que todo lo que el estudiante hace, dice o piensa pasa a formar parte de un archivo permanente que lo caracteriza.

En China, algunos institutos están empezando a utilizar la monitorización facial de los alumnos en clase ya no para obtener su identidad, sino para detectar sus actitudes en cada momento. En una escuela en Hangzhou, por ejemplo, tres cámaras en la clase escanean las caras de los estudiantes para tratar de detectar su estado de ánimo, clasificarlo entre sorpresa, tristeza, antipatía, enojo, felicidad, temor o neutro, registrarlo y promediarlo durante cada clase. Además, el crecimiento en el uso de herramientas de machine learning para la corrección de exámenes permite obtener de manera automática datos sobre el desempeño, e incluso, detectar cuándo los estudiantes copian. En algún momento, podríamos incluso pensar en la adopción por parte de las instituciones educativas de herramientas de monitorización de la actividad cerebral, ya en uso en el ejército y en algunas compañías chinas.

En Francia, más conocida en este momento por la prohibición de llevar smartphones al colegio que entrará en vigor en este curso, hay al menos un instituto privado católico en París que ha decidido obligar a sus estudiantes a llevar un dispositivo Bluetooth para controlar su presencia y evitar que falten a clase, so pena de ser multados con diez euros cada vez que lo olviden en casa o lo pierdan.

¿Qué tipo de escenarios podemos esperar para la educación en el futuro? ¿Tecnologías pensadas para maximizar el aprendizaje y crear entornos agradables, o un adelanto de distopía que prepare a los jóvenes para una sociedad de monitorización constante y permanente en la que se encontrarán, gracias a su educación, como peces en el agua? Podemos justificarlo como forma de mejorar el rendimiento académico, como intentos de mejorar la seguridad y de intentar evitar determinados peligros, como una manera de preparar a los alumnos para los entornos profesionales en los que van a desempeñar su futuro profesional, o de muchas otras formas, pero el caso es que este tipo de noticias están proliferando, y están cambiando de manera muy rápida la imagen de la educación en países tan diferentes como los Estados Unidos, China o Francia. Soy un convencido del poder de la analítica de cara a la mejora de los procesos educativos, pero creo que sería importante tener una discusión informada acerca de su uso e implicaciones de cara a cuestiones como la privacidad, la seguridad o la disciplina, si queremos evitar que muchas decisiones que se disponen a condicionar el futuro de la sociedad sean tomadas de facto, sin un proceso de reflexión adecuado.

 

IMAGE: Teguhjatipras - CC0 Creative CommonsCada vez más noticias apuntan a la popularización y ubicuidad de las tecnologías de reconocimiento facial, en una variedad de ámbitos cada vez mayor. Desde ciudades de todo el mundo erizadas de cámaras, hasta el extremo de control social de las ciudades chinas, en las que en las que no puedes hacer nada sin que tus pasos, las personas con las que estás o los sitios por los que pasas sean almacenados en una base de datos que monitoriza tus costumbres, tus compañías o tu crédito social, pases por delante de una cámara o por delante de las gafas de un policía.

Pero más allá de las calles de nuestras ciudades, las cámaras y el reconocimiento facial empiezan a ser, cada vez más, utilizadas en otros ámbitos. La última polémica ha saltado a partir de las escuelas norteamericanas que intentan prevenir posibles episodios de violencia, probablemente de manera infructuosa dado que los protagonistas suelen ser alumnos del propio centro con acceso autorizado a sus instalaciones: sociedades de defensa de los derechos civiles como ACLU se han posicionado abiertamente en contra de este tipo de sistemas, que consideran inaceptables en un entorno escolar por ser invasivas y con numerosos errores que tienden a afectar especialmente a mujeres y a personas de color.

En las escuelas chinas, un entorno violencia completamente inexistente, no utilizan esta tecnología con ese motivo, sino con uno completamente diferente: monitorizar el rendimiento y la atención de los estudiantes. En varias escuelas piloto, los estudiantes saben que si sus expresiones muestran aburrimiento o si se duermen, sus clases están llenas de cámaras capaces no solo de tomar una prueba gráfica de ello, sino de interpretarlo y etiquetarlo además con los algoritmos adecuados. En algunos ámbitos se especula incluso con la posibilidad de llegar algo más allá, y probar la eficiencia de otra familia de tecnologías, las de vigilancia emocional, ya en uso en el ejército chino y en varias compañías privadas, que sitúan sensores inalámbricos en gorras o sombreros y son capaces, mediante una lectura de las ondas cerebrales, de optimizar cuestiones como las pausas en el trabajo, la reasignación de tareas o la localización física dentro de las instalaciones, y prometen a cambio importantes incrementos de eficiencia.

¿Estamos yendo hacia un futuro de monitorización permanente mediante tecnologías de este tipo? Algunos abiertamente afirman que las tecnologías de reconocimiento facial están aquí para quedarse, y que lo mejor que podríamos hacer es, sencillamente, aceptarlo como un elemento más de las sociedades del futuro. Actitudes tecno-fatalistas de este tipo asumen que incentivos de adopción como los generados por el miedo o por los posibles incrementos de productividad son tan poderosos, que la sociedad no puede dejar de plantearse dejar a un lado sus temores y resistencias, y proceder a la implantación, oficializando la aceptación por la vía de los hechos. En realidad, hablamos de una tecnología por la que nadie va a preguntar a los ciudadanos, y de decisiones de adopción que dependerán, en último término, de gobiernos, autoridades municipales o departamentos de educación. La resistencia pasiva mediante elementos como gafassombreros u otros elementos parece fútil, lo que podría determinar un futuro de adopción con más bien escasas resistencias.

¿Qué hacer si, en efecto, este tipo de tecnologías se disponen, de manera irremediable, a formar una parte integrante de nuestro futuro? ¿Debemos, como instituciones educativas, aceptarlo como tal y proceder a su implantación? Si ese es el caso, entiendo que es fundamental llevar a cabo una reflexión sobre cuál va a ser su papel. En IE Business School, por ejemplo, coincidiendo con el desarrollo de nuestra WoW Room, un aula interactiva con 45 metros cuadrados de pantallas en las que los estudiantes participan en remoto, probamos un algoritmo de engagement, que permite al profesor diagnosticar qué alumnos están prestando atención y cuales están aburridos o distraídos. Los resultados iniciales de su uso, aunque podríamos pensar que algunas resistencias podrían desaarecer con la costumbre y el uso habitual, apuntaron a que los alumnos no se sentían cómodos conociendo la existencia de una herramienta así que pudiese, eventualmente, afectar a sus calificaciones, así que resolvimos utilizarla fundamentalmente como una alerta en tiempo real al profesor: si mientras das tu clase, ves que el número de alumnos aburridos o distraídos se incrementa en algún momento, es que ese contenido, esa parte de la discusión o ese elemento que estás utilizando no está funcionando, y deberías pasarlo más rápidamente o solucionar esa falta de atractivo del contenido de alguna manera.

¿Cómo nos afectaría el uso de cámaras, sistemas de monitorización de ondas cerebrales o algoritmos de ese tipo en entornos de trabajo? En una situación como la actual, cabe esperar que serían utilizados para el control exhaustivo o incluso para sanciones o exclusión de aquellos que son evaluados negativamente. Sin embargo, cabe pensar en otro tipo de entornos con muchos más matices: un trabajador aburrido o distraído no necesariamente implica un trabajador no productivo, sino que puede indicar muchas otras circunstancias. Entornos sometidos a un control de este tipo ya existen, como hace una semana comentaba David Bonilla en una de sus newsletters: en compañías como Crossover, un supervisor evalúa constantemente cada período de trabajo de diez minutos de sus subordinados en función de herramientas de monitorización como WorkSmart, que recopilan estadísticas sobre las aplicaciones y sitios web que tienes abiertos, el timepo que pasas en ellos, tus pulsaciones de teclado y movimientos de ratón y que, cada 10 minutos, aleatoriamente y sin previo aviso, toma una foto desde la cámara del portátil y guarda una captura de lo que tengas en pantalla. Más de 1,500 personas en 80 países colaboran con esta compañía sometidos a la monitorización de esta herramienta, en las que la compañía paga únicamente el tiempo que considera de dedicación plena, no las pausas ni los momentos de distracción.

En escenarios de futuro en los que el trabajo cambia su naturaleza y se convierte en algo voluntario, vocacional o que no forma parte de una obligación necesaria para la subsistencia gracias al desarrollo de sistemas de renta básica incondicional, este tipo de herramientas podrían facilitar sistemas de compensación basados en criterios que optimicen la productividad: si el análisis de un trabajador revela que está somnoliento o distraído, envíalo a dormir o a hacer otra cosa hasta que muestre un incremento en sus capacidades productivas, y optimiza su rendimiento. ¿Aceptable, o una auténtica pesadilla distópica? ¿Nos aboca el futuro necesariamente a un escenario en el que el uso de tecnologías de reconocimiento facial, expresiones o incluso análisis de ondas cerebrales nos ubique en entornos de vigilancia y monitorización permanente? ¿Debe la formación incorporar ese tipo de tecnologías para facilitar una familiarización con ellas y un uso adecuado y conforme a unos estándares éticos? ¿Debemos las instituciones educativas a todos los niveles intentar preparar a nuestros alumnos para unos escenarios futuros que parecen cada vez más reales, más tangibles y más inevitables? ¿O debemos ignorarlos como si esa adopción tecnológica no estuviese teniendo lugar? ¿Existen alternativas?

 

IMAGE: Peter Lomas - CC0 Creative CommonsCon la rápida mejora de la tecnología de cámaras, del ancho de banda disponible para la transmisión y, sobre todo, de los algoritmos de reconocimiento de imágenes, la presencia de cámaras en todos los rincones de las ciudades se está normalizando cada vez más: combinada con los satélites y con las señales de los smartphones que llevamos en todo momento en el bolsillo, convierten el entorno en que vivimos en un escenario de vigilancia permanente.

Lo que inicialmente fue un modo de vigilar lugares concretos en los que podía cometerse delitos de manera recurrente, como bancos, hoy ha evolucionado para convertirse en enormes redes de vigilancia coordinada capaces de controlar la totalidad de nuestro recorrido por la ciudad, incluyendo cámaras en fachadas de domicilios particulares dotadas de algoritmos capaces de diferenciar personas de animales o cosas, o identificar caras concretas.

La tendencia, sin duda, puede observarse en su plenitud en muchas ciudades en China, convertida en el auténtico estado de la vigilancia total: más de 170 millones de cámaras exteriores están ya en uso, y se calcula que 400 millones más van a ser instaladas a lo largo de los próximos tres años, unidas a sistemas de cámaras portátiles en gafas utilizadas por la policía capaces de identificar a las personas que tengan delante. Obviamente, el control de semejante cantidad de cámaras no puede ser llevado a cabo manualmente, sino utilizando algoritmos capaces de reconocer personas y practicar seguimientos en función de criterios establecidos, algoritmos que se desarrollan para todo tipo de funciones como el control de las operaciones de una tienda, pero que terminan siendo ofrecidos a la policía.

¿Nos asusta la popularización y difusión de perspectivas como la de China? La evolución de China no termina en sus calles: la vigilancia se está adentrando ya en las escuelas, en las que las cámaras vigilan la actitud de los estudiantes, su nivel de atención o sus movimientos durante las clases, y llega incluso, en algunos casos como los militares, las cadenas de montaje o los conductores de trenes, a la monitorización de su actividad cerebral. La vigilancia constante, completamente normalizada y convertida en una característica de la vida de los ciudadanos, obligados a aceptar que están siendo observados en cada uno de los momentos de sus vidas, por algoritmos que capturan no solo sus desplazamientos, sino las personas con las que hablan o con las que se ven habitualmente. Algoritmos capaces de reconocer una pelea, un abrazo, un gesto, que unidos a los sistemas de calificación social, dan lugar a un sistema capaz de clasificar a los ciudadanos en función de su afinidad política, o incluso capaz de aislar a potenciales disidentes haciendo que el crédito social de aquellas personas con las que hablan descienda por el hecho de relacionarse con ellas.

Pero esa China convertida en escaparate de tendencias no es el único escenario de la vigilancia: en Newark, las cámaras instaladas en toda la ciudad ya no solo son utilizadas por la policía, sino que ha sido abiertas a cualquiera con una conexión a la red. Cualquiera puede conectarse y utilizar esas cámaras para controlar una zona, a una persona, o simplemente para curiosear, ver el tráfico o el ambiente. Un movimiento planteado para incrementar la transparencia, pero que ha generado alarmas por su posible uso por parte de acosadores o incluso ladrones, capaces ahora de controlar la actividad en una vivienda determinada desde la comodidad de sus casas. Países democráticos como el Reino Unido manifiestan también tendencias hacia el control total y dictan leyes de vigilancia extrema con la oposición de Naciones Unidas, de grupos de defensa de los derechos ciudadanos y activistas de la privacidad y de empresas tecnológicas, leyes que son posteriormente declaradas parcialmente ilegales, pero que claramente marcan una tendencia. En Barcelona, un movimiento encabezado desde el ayuntamiento pretende tomar control de los datos generados por las infraestructuras de la ciudad y pasar “de un modelo de capitalismo de vigilancia, donde los datos son opacos y no transparentes, a otro en el que los propios ciudadanos puedan tomar posesión de sus datos”, algo que afecta a la explotación de los datos de consumos, contaminación, ruido, etc., pero excluye el uso por motivos de seguridad o vigilancia.

Otro modelo relacionado con el uso de los datos es el de compañías privadas como la Palantir de Peter Thiel, capaces de acceder a enormes cantidades de datos y construir detalladísimos perfiles a partir de comportamientos tanto online como offline, o sospechosos habitualmente mencionados como Facebook, sobre cuyas actividades se han escrito infinidad de artículos. Frente a modelos distópicos como el de China o enfocados en la vigilancia obsesiva, como los que están surgiendo en países como Suecia derivados de las posibles amenazas terroristas, surgen grupos de asociaciones activistas generalmente norteamericanas como ACLU o la EFF, con campañas que intentan concienciar a la población sobre los excesos de una vigilancia o trazar estrategias para desmantelarla, o para convencer a una ciudadanía preocupada por su seguridad de que la vigilancia masiva no funciona ni funcionará nunca como arma para combatir el terrorismo.  Simplemente unas pocas asociaciones civiles, que obtienen sus fondos a través de campañas de donaciones públicas, contra una tendencia masiva a nivel internacional que llena de cámaras nuestras ciudades y utiliza algoritmos para reconocernos, seguir nuestros hábitos, ver por dónde nos movemos y qué hacemos habitualmente en nuestro día a día. Entender que la idea de “si no tengo nada que ocultar, no tengo nada que temer” es errónea, y debe ser sustituida en el imaginario colectivo por ideas más progresistas, más lógicas y que toleren el activismo, la voluntad de cambio o la protesta pacífica.

¿Es la transición hacia una sociedad en permanente vigilancia una transición inevitable? ¿Nos dirigimos indefectiblemente hacia un modelo orwelliano, hacia escenarios distópicos en los que todo lo que hacemos, todas nuestras actividades están permanentemente monitorizadas? ¿Dependemos únicamente de unas pocas asociaciones civiles para intentar detener esta evolución? ¿Estamos obligados a imaginar la sociedad del futuro como un escenario en el que todo lo que hagamos sea constante objeto de vigilancia? ¿Hay alternativas?

 

Telegram blockedEl Servicio Federal de Supervisión de las Telecomunicaciones ruso, conocido como Roskomnadzor, ordena, tras una vista judicial que duró únicamente 18 minutos, el bloqueo inmediato de la aplicación de mensajería instantánea Telegram, creada por el polémico emprendedor ruso Pavel Durov, así como su retirada de las tiendas de aplicaciones de Apple y Google.

Al encontrarse con que una gran cantidad de usuarios, acostumbrados a los habituales bloqueos de páginas llevados a cabo por su gobierno, evaden el bloqueo a través de proxies o utilizando VPNs, el organismo gubernamental emprende una alocada y absurda carrera por intentar bloquear todos los posibles recursos a través de los cuales supuestamente se pueda conectar con Telegram, y al hacerlo, se lleva por delante más de dieciséis millones de direcciones IP de servidores de Google y Amazon (hay una página para ver ese número en tiempo real), provocando disrupciones en la funcionalidad de todo tipo de servicios, desde juegos online hasta apps móviles o páginas de intercambio de criptomonedas. Los intentos de Roskomnadzor para intentar bloquear Telegram han funcionado como un auténtico ataque de denegación de servicio sobre la internet rusa: gran cantidad de páginas y servicios completamente ajenos a Telegram están bloqueados, en un desmesurado esfuerzo de censura moral llevada a cabo de manera técnicamente ignorante. Y a pesar de todo ello, según el propio Durov, Telegram ha seguido funcionando con relativa normalidad, y la compañía no ha detectado una caída significativa de la actividad de sus usuarios en territorio ruso. Una sola compañía con muy pocos trabajadores está dejando en el más absoluto ridículo al país que muchos dicen temer por su supuesto desarrollo y potencial tecnológico en internet.

¿A qué se debe el empeño por bloquear Telegram a toda costa? La teórica justificación es que la agencia gubernamental solicitó a la compañía una clave universal para descifrar las conversaciones llevadas a cabo a través del servicio, solicitud que fue denegada por la compañía. ¿Qué lleva a una compañía como Telegram, sabiendo a lo que se expone, deniegue esta petición? Pues además del fuerte compromiso de su fundador con la privacidad de sus usuarios, un pequeño problema adicional: no existe tal clave universal. Cada conversación a través de Telegram es cifrada mediante una clave generada aleatoriamente para cada mensaje, y esas claves no están en poder de la compañía. Una circunstancia que ya pudimos ver hace tiempo en Brasil con WhatsApp, pero que mientras en aquel caso parecía deberse a la ignorancia o ineptitud tecnológica de un juez, en este se debe simplemente a la búsqueda de un pretexto para llevar a cabo el bloqueo. Simplemente, el interés por bloquear cualquier canal que pueda, por su diseño o características, escapar al control de la censura gubernamental.

El caso de Pavel Durov, al que algunos consideran “el Mark Zuckerberg ruso”, es especialmente notable: antes de Telegram fue el fundador de VK, la red social más exitosa del país, pero se encontró con que una serie de maniobras turbias protagonizadas por el gobierno ruso le arrebataron el control de su propia compañía. Entre ellas se encontró, el 3 de abril de 2014, el uso de una carta falsa de dimisión que el fundador había escrito con motivo del April Fools que había tenido lugar dos días antes, así como la actuación de algunos inversores que operaban en favor de los intereses del gobierno. Tras su cese, abandonó Rusia sin planes para volver afirmando que el país era incompatible con los negocios en internet, adquirió la ciudadanía de las islas caribeñas de Saint Kitts and Nevis gracias a una donación de $250,000, y se dedicó a una vida nómada, sin pasar más de cinco semanas en ningún sitio, sin posesiones materiales ni inmobiliarias, y coordinándose con algunos directivos de la compañía que viajan con él y con otros que trabajan desde sus países. La motivación para su cese en VK estuvo, según la mayoría de analistas del momento, en su negativa a proporcionar datos de personas que llevaban a cabo algún tipo de activismo a través de su red social. Según Edward Snowden, la respuesta de negativa y resistencia de Durov a las demandas totalitarias del gobierno ruso es la única respuesta moral aceptable, y supone una muestra de liderazgo real.

Ante el bloqueo, Durov ha respondido con toda una declaración de principios: “en Telegram tenemos el lujo de que no nos importen ni los flujos de ingresos ni la publicidad”, y “la privacidad no está en venta, y los derechos humanos no deben comprometerse en función del miedo o de la codicia”. En marzo de este año Telegram afirmaba tener unos doscientos millones de usuarios mensuales activos, con un razonable éxito en países como Corea del Sur, India, España, México o Brasil, y recientemente lanzó una exitosa ICO con la que se calcula que podría haber obtenido más de 1,700 millones de dólares. Si se trata de aguantar sin el tirón del mercado ruso, que supone aproximadamente un 7% de la actividad para la compañía, Telegram, que antes del bloqueo figuraba como la novena aplicación de mensajería instantánea más importante del mundo por número de usuarios, podría tener cuerda para mucho tiempo. Según el propio Durov, incluso aunque perdiese la totalidad del mercado ruso, el crecimiento orgánico de Telegram en otras regiones haría que la pérdida se compensase en tan solo un par de meses. Sin embargo, su compromiso con los usuarios rusos y su privacidad es importante a nivel personal, lo que le ha impulsado a repartir donaciones en bitcoins a personas y compañías que ejecuten proxies socks5 y servicios de VPN. Además, afirma estar dispuesto a donar millones de dólares durante este año a esta causa, y esperar que otras personas e instituciones lo sigan en lo que denomina Resistencia Digital, un movimiento descentralizado que representa las libertades digitales y el progreso a nivel mundial.

Ya hay más direcciones IP bloqueadas que usuarios de Telegram en Rusia, pero Telegram sigue funcionando con relativa normalidad. Una perfecta combinación de sinrazón, burocracia y estupidez. ¿Algo que no supiésemos de Rusia?