IMAGE: Teguhjatipras - CC0 Creative CommonsCada vez más noticias apuntan a la popularización y ubicuidad de las tecnologías de reconocimiento facial, en una variedad de ámbitos cada vez mayor. Desde ciudades de todo el mundo erizadas de cámaras, hasta el extremo de control social de las ciudades chinas, en las que en las que no puedes hacer nada sin que tus pasos, las personas con las que estás o los sitios por los que pasas sean almacenados en una base de datos que monitoriza tus costumbres, tus compañías o tu crédito social, pases por delante de una cámara o por delante de las gafas de un policía.

Pero más allá de las calles de nuestras ciudades, las cámaras y el reconocimiento facial empiezan a ser, cada vez más, utilizadas en otros ámbitos. La última polémica ha saltado a partir de las escuelas norteamericanas que intentan prevenir posibles episodios de violencia, probablemente de manera infructuosa dado que los protagonistas suelen ser alumnos del propio centro con acceso autorizado a sus instalaciones: sociedades de defensa de los derechos civiles como ACLU se han posicionado abiertamente en contra de este tipo de sistemas, que consideran inaceptables en un entorno escolar por ser invasivas y con numerosos errores que tienden a afectar especialmente a mujeres y a personas de color.

En las escuelas chinas, un entorno violencia completamente inexistente, no utilizan esta tecnología con ese motivo, sino con uno completamente diferente: monitorizar el rendimiento y la atención de los estudiantes. En varias escuelas piloto, los estudiantes saben que si sus expresiones muestran aburrimiento o si se duermen, sus clases están llenas de cámaras capaces no solo de tomar una prueba gráfica de ello, sino de interpretarlo y etiquetarlo además con los algoritmos adecuados. En algunos ámbitos se especula incluso con la posibilidad de llegar algo más allá, y probar la eficiencia de otra familia de tecnologías, las de vigilancia emocional, ya en uso en el ejército chino y en varias compañías privadas, que sitúan sensores inalámbricos en gorras o sombreros y son capaces, mediante una lectura de las ondas cerebrales, de optimizar cuestiones como las pausas en el trabajo, la reasignación de tareas o la localización física dentro de las instalaciones, y prometen a cambio importantes incrementos de eficiencia.

¿Estamos yendo hacia un futuro de monitorización permanente mediante tecnologías de este tipo? Algunos abiertamente afirman que las tecnologías de reconocimiento facial están aquí para quedarse, y que lo mejor que podríamos hacer es, sencillamente, aceptarlo como un elemento más de las sociedades del futuro. Actitudes tecno-fatalistas de este tipo asumen que incentivos de adopción como los generados por el miedo o por los posibles incrementos de productividad son tan poderosos, que la sociedad no puede dejar de plantearse dejar a un lado sus temores y resistencias, y proceder a la implantación, oficializando la aceptación por la vía de los hechos. En realidad, hablamos de una tecnología por la que nadie va a preguntar a los ciudadanos, y de decisiones de adopción que dependerán, en último término, de gobiernos, autoridades municipales o departamentos de educación. La resistencia pasiva mediante elementos como gafassombreros u otros elementos parece fútil, lo que podría determinar un futuro de adopción con más bien escasas resistencias.

¿Qué hacer si, en efecto, este tipo de tecnologías se disponen, de manera irremediable, a formar una parte integrante de nuestro futuro? ¿Debemos, como instituciones educativas, aceptarlo como tal y proceder a su implantación? Si ese es el caso, entiendo que es fundamental llevar a cabo una reflexión sobre cuál va a ser su papel. En IE Business School, por ejemplo, coincidiendo con el desarrollo de nuestra WoW Room, un aula interactiva con 45 metros cuadrados de pantallas en las que los estudiantes participan en remoto, probamos un algoritmo de engagement, que permite al profesor diagnosticar qué alumnos están prestando atención y cuales están aburridos o distraídos. Los resultados iniciales de su uso, aunque podríamos pensar que algunas resistencias podrían desaarecer con la costumbre y el uso habitual, apuntaron a que los alumnos no se sentían cómodos conociendo la existencia de una herramienta así que pudiese, eventualmente, afectar a sus calificaciones, así que resolvimos utilizarla fundamentalmente como una alerta en tiempo real al profesor: si mientras das tu clase, ves que el número de alumnos aburridos o distraídos se incrementa en algún momento, es que ese contenido, esa parte de la discusión o ese elemento que estás utilizando no está funcionando, y deberías pasarlo más rápidamente o solucionar esa falta de atractivo del contenido de alguna manera.

¿Cómo nos afectaría el uso de cámaras, sistemas de monitorización de ondas cerebrales o algoritmos de ese tipo en entornos de trabajo? En una situación como la actual, cabe esperar que serían utilizados para el control exhaustivo o incluso para sanciones o exclusión de aquellos que son evaluados negativamente. Sin embargo, cabe pensar en otro tipo de entornos con muchos más matices: un trabajador aburrido o distraído no necesariamente implica un trabajador no productivo, sino que puede indicar muchas otras circunstancias. Entornos sometidos a un control de este tipo ya existen, como hace una semana comentaba David Bonilla en una de sus newsletters: en compañías como Crossover, un supervisor evalúa constantemente cada período de trabajo de diez minutos de sus subordinados en función de herramientas de monitorización como WorkSmart, que recopilan estadísticas sobre las aplicaciones y sitios web que tienes abiertos, el timepo que pasas en ellos, tus pulsaciones de teclado y movimientos de ratón y que, cada 10 minutos, aleatoriamente y sin previo aviso, toma una foto desde la cámara del portátil y guarda una captura de lo que tengas en pantalla. Más de 1,500 personas en 80 países colaboran con esta compañía sometidos a la monitorización de esta herramienta, en las que la compañía paga únicamente el tiempo que considera de dedicación plena, no las pausas ni los momentos de distracción.

En escenarios de futuro en los que el trabajo cambia su naturaleza y se convierte en algo voluntario, vocacional o que no forma parte de una obligación necesaria para la subsistencia gracias al desarrollo de sistemas de renta básica incondicional, este tipo de herramientas podrían facilitar sistemas de compensación basados en criterios que optimicen la productividad: si el análisis de un trabajador revela que está somnoliento o distraído, envíalo a dormir o a hacer otra cosa hasta que muestre un incremento en sus capacidades productivas, y optimiza su rendimiento. ¿Aceptable, o una auténtica pesadilla distópica? ¿Nos aboca el futuro necesariamente a un escenario en el que el uso de tecnologías de reconocimiento facial, expresiones o incluso análisis de ondas cerebrales nos ubique en entornos de vigilancia y monitorización permanente? ¿Debe la formación incorporar ese tipo de tecnologías para facilitar una familiarización con ellas y un uso adecuado y conforme a unos estándares éticos? ¿Debemos las instituciones educativas a todos los niveles intentar preparar a nuestros alumnos para unos escenarios futuros que parecen cada vez más reales, más tangibles y más inevitables? ¿O debemos ignorarlos como si esa adopción tecnológica no estuviese teniendo lugar? ¿Existen alternativas?

 

IMAGE: Peter Lomas - CC0 Creative CommonsCon la rápida mejora de la tecnología de cámaras, del ancho de banda disponible para la transmisión y, sobre todo, de los algoritmos de reconocimiento de imágenes, la presencia de cámaras en todos los rincones de las ciudades se está normalizando cada vez más: combinada con los satélites y con las señales de los smartphones que llevamos en todo momento en el bolsillo, convierten el entorno en que vivimos en un escenario de vigilancia permanente.

Lo que inicialmente fue un modo de vigilar lugares concretos en los que podía cometerse delitos de manera recurrente, como bancos, hoy ha evolucionado para convertirse en enormes redes de vigilancia coordinada capaces de controlar la totalidad de nuestro recorrido por la ciudad, incluyendo cámaras en fachadas de domicilios particulares dotadas de algoritmos capaces de diferenciar personas de animales o cosas, o identificar caras concretas.

La tendencia, sin duda, puede observarse en su plenitud en muchas ciudades en China, convertida en el auténtico estado de la vigilancia total: más de 170 millones de cámaras exteriores están ya en uso, y se calcula que 400 millones más van a ser instaladas a lo largo de los próximos tres años, unidas a sistemas de cámaras portátiles en gafas utilizadas por la policía capaces de identificar a las personas que tengan delante. Obviamente, el control de semejante cantidad de cámaras no puede ser llevado a cabo manualmente, sino utilizando algoritmos capaces de reconocer personas y practicar seguimientos en función de criterios establecidos, algoritmos que se desarrollan para todo tipo de funciones como el control de las operaciones de una tienda, pero que terminan siendo ofrecidos a la policía.

¿Nos asusta la popularización y difusión de perspectivas como la de China? La evolución de China no termina en sus calles: la vigilancia se está adentrando ya en las escuelas, en las que las cámaras vigilan la actitud de los estudiantes, su nivel de atención o sus movimientos durante las clases, y llega incluso, en algunos casos como los militares, las cadenas de montaje o los conductores de trenes, a la monitorización de su actividad cerebral. La vigilancia constante, completamente normalizada y convertida en una característica de la vida de los ciudadanos, obligados a aceptar que están siendo observados en cada uno de los momentos de sus vidas, por algoritmos que capturan no solo sus desplazamientos, sino las personas con las que hablan o con las que se ven habitualmente. Algoritmos capaces de reconocer una pelea, un abrazo, un gesto, que unidos a los sistemas de calificación social, dan lugar a un sistema capaz de clasificar a los ciudadanos en función de su afinidad política, o incluso capaz de aislar a potenciales disidentes haciendo que el crédito social de aquellas personas con las que hablan descienda por el hecho de relacionarse con ellas.

Pero esa China convertida en escaparate de tendencias no es el único escenario de la vigilancia: en Newark, las cámaras instaladas en toda la ciudad ya no solo son utilizadas por la policía, sino que ha sido abiertas a cualquiera con una conexión a la red. Cualquiera puede conectarse y utilizar esas cámaras para controlar una zona, a una persona, o simplemente para curiosear, ver el tráfico o el ambiente. Un movimiento planteado para incrementar la transparencia, pero que ha generado alarmas por su posible uso por parte de acosadores o incluso ladrones, capaces ahora de controlar la actividad en una vivienda determinada desde la comodidad de sus casas. Países democráticos como el Reino Unido manifiestan también tendencias hacia el control total y dictan leyes de vigilancia extrema con la oposición de Naciones Unidas, de grupos de defensa de los derechos ciudadanos y activistas de la privacidad y de empresas tecnológicas, leyes que son posteriormente declaradas parcialmente ilegales, pero que claramente marcan una tendencia. En Barcelona, un movimiento encabezado desde el ayuntamiento pretende tomar control de los datos generados por las infraestructuras de la ciudad y pasar “de un modelo de capitalismo de vigilancia, donde los datos son opacos y no transparentes, a otro en el que los propios ciudadanos puedan tomar posesión de sus datos”, algo que afecta a la explotación de los datos de consumos, contaminación, ruido, etc., pero excluye el uso por motivos de seguridad o vigilancia.

Otro modelo relacionado con el uso de los datos es el de compañías privadas como la Palantir de Peter Thiel, capaces de acceder a enormes cantidades de datos y construir detalladísimos perfiles a partir de comportamientos tanto online como offline, o sospechosos habitualmente mencionados como Facebook, sobre cuyas actividades se han escrito infinidad de artículos. Frente a modelos distópicos como el de China o enfocados en la vigilancia obsesiva, como los que están surgiendo en países como Suecia derivados de las posibles amenazas terroristas, surgen grupos de asociaciones activistas generalmente norteamericanas como ACLU o la EFF, con campañas que intentan concienciar a la población sobre los excesos de una vigilancia o trazar estrategias para desmantelarla, o para convencer a una ciudadanía preocupada por su seguridad de que la vigilancia masiva no funciona ni funcionará nunca como arma para combatir el terrorismo.  Simplemente unas pocas asociaciones civiles, que obtienen sus fondos a través de campañas de donaciones públicas, contra una tendencia masiva a nivel internacional que llena de cámaras nuestras ciudades y utiliza algoritmos para reconocernos, seguir nuestros hábitos, ver por dónde nos movemos y qué hacemos habitualmente en nuestro día a día. Entender que la idea de “si no tengo nada que ocultar, no tengo nada que temer” es errónea, y debe ser sustituida en el imaginario colectivo por ideas más progresistas, más lógicas y que toleren el activismo, la voluntad de cambio o la protesta pacífica.

¿Es la transición hacia una sociedad en permanente vigilancia una transición inevitable? ¿Nos dirigimos indefectiblemente hacia un modelo orwelliano, hacia escenarios distópicos en los que todo lo que hacemos, todas nuestras actividades están permanentemente monitorizadas? ¿Dependemos únicamente de unas pocas asociaciones civiles para intentar detener esta evolución? ¿Estamos obligados a imaginar la sociedad del futuro como un escenario en el que todo lo que hagamos sea constante objeto de vigilancia? ¿Hay alternativas?

 

Telegram blockedEl Servicio Federal de Supervisión de las Telecomunicaciones ruso, conocido como Roskomnadzor, ordena, tras una vista judicial que duró únicamente 18 minutos, el bloqueo inmediato de la aplicación de mensajería instantánea Telegram, creada por el polémico emprendedor ruso Pavel Durov, así como su retirada de las tiendas de aplicaciones de Apple y Google.

Al encontrarse con que una gran cantidad de usuarios, acostumbrados a los habituales bloqueos de páginas llevados a cabo por su gobierno, evaden el bloqueo a través de proxies o utilizando VPNs, el organismo gubernamental emprende una alocada y absurda carrera por intentar bloquear todos los posibles recursos a través de los cuales supuestamente se pueda conectar con Telegram, y al hacerlo, se lleva por delante más de dieciséis millones de direcciones IP de servidores de Google y Amazon (hay una página para ver ese número en tiempo real), provocando disrupciones en la funcionalidad de todo tipo de servicios, desde juegos online hasta apps móviles o páginas de intercambio de criptomonedas. Los intentos de Roskomnadzor para intentar bloquear Telegram han funcionado como un auténtico ataque de denegación de servicio sobre la internet rusa: gran cantidad de páginas y servicios completamente ajenos a Telegram están bloqueados, en un desmesurado esfuerzo de censura moral llevada a cabo de manera técnicamente ignorante. Y a pesar de todo ello, según el propio Durov, Telegram ha seguido funcionando con relativa normalidad, y la compañía no ha detectado una caída significativa de la actividad de sus usuarios en territorio ruso. Una sola compañía con muy pocos trabajadores está dejando en el más absoluto ridículo al país que muchos dicen temer por su supuesto desarrollo y potencial tecnológico en internet.

¿A qué se debe el empeño por bloquear Telegram a toda costa? La teórica justificación es que la agencia gubernamental solicitó a la compañía una clave universal para descifrar las conversaciones llevadas a cabo a través del servicio, solicitud que fue denegada por la compañía. ¿Qué lleva a una compañía como Telegram, sabiendo a lo que se expone, deniegue esta petición? Pues además del fuerte compromiso de su fundador con la privacidad de sus usuarios, un pequeño problema adicional: no existe tal clave universal. Cada conversación a través de Telegram es cifrada mediante una clave generada aleatoriamente para cada mensaje, y esas claves no están en poder de la compañía. Una circunstancia que ya pudimos ver hace tiempo en Brasil con WhatsApp, pero que mientras en aquel caso parecía deberse a la ignorancia o ineptitud tecnológica de un juez, en este se debe simplemente a la búsqueda de un pretexto para llevar a cabo el bloqueo. Simplemente, el interés por bloquear cualquier canal que pueda, por su diseño o características, escapar al control de la censura gubernamental.

El caso de Pavel Durov, al que algunos consideran “el Mark Zuckerberg ruso”, es especialmente notable: antes de Telegram fue el fundador de VK, la red social más exitosa del país, pero se encontró con que una serie de maniobras turbias protagonizadas por el gobierno ruso le arrebataron el control de su propia compañía. Entre ellas se encontró, el 3 de abril de 2014, el uso de una carta falsa de dimisión que el fundador había escrito con motivo del April Fools que había tenido lugar dos días antes, así como la actuación de algunos inversores que operaban en favor de los intereses del gobierno. Tras su cese, abandonó Rusia sin planes para volver afirmando que el país era incompatible con los negocios en internet, adquirió la ciudadanía de las islas caribeñas de Saint Kitts and Nevis gracias a una donación de $250,000, y se dedicó a una vida nómada, sin pasar más de cinco semanas en ningún sitio, sin posesiones materiales ni inmobiliarias, y coordinándose con algunos directivos de la compañía que viajan con él y con otros que trabajan desde sus países. La motivación para su cese en VK estuvo, según la mayoría de analistas del momento, en su negativa a proporcionar datos de personas que llevaban a cabo algún tipo de activismo a través de su red social. Según Edward Snowden, la respuesta de negativa y resistencia de Durov a las demandas totalitarias del gobierno ruso es la única respuesta moral aceptable, y supone una muestra de liderazgo real.

Ante el bloqueo, Durov ha respondido con toda una declaración de principios: “en Telegram tenemos el lujo de que no nos importen ni los flujos de ingresos ni la publicidad”, y “la privacidad no está en venta, y los derechos humanos no deben comprometerse en función del miedo o de la codicia”. En marzo de este año Telegram afirmaba tener unos doscientos millones de usuarios mensuales activos, con un razonable éxito en países como Corea del Sur, India, España, México o Brasil, y recientemente lanzó una exitosa ICO con la que se calcula que podría haber obtenido más de 1,700 millones de dólares. Si se trata de aguantar sin el tirón del mercado ruso, que supone aproximadamente un 7% de la actividad para la compañía, Telegram, que antes del bloqueo figuraba como la novena aplicación de mensajería instantánea más importante del mundo por número de usuarios, podría tener cuerda para mucho tiempo. Según el propio Durov, incluso aunque perdiese la totalidad del mercado ruso, el crecimiento orgánico de Telegram en otras regiones haría que la pérdida se compensase en tan solo un par de meses. Sin embargo, su compromiso con los usuarios rusos y su privacidad es importante a nivel personal, lo que le ha impulsado a repartir donaciones en bitcoins a personas y compañías que ejecuten proxies socks5 y servicios de VPN. Además, afirma estar dispuesto a donar millones de dólares durante este año a esta causa, y esperar que otras personas e instituciones lo sigan en lo que denomina Resistencia Digital, un movimiento descentralizado que representa las libertades digitales y el progreso a nivel mundial.

Ya hay más direcciones IP bloqueadas que usuarios de Telegram en Rusia, pero Telegram sigue funcionando con relativa normalidad. Una perfecta combinación de sinrazón, burocracia y estupidez. ¿Algo que no supiésemos de Rusia?

 

IMAGE: CC BY-SA 3.0 Nick Youngson / Alpha Stock ImagesLos recientes escándalos de Facebook y la subsiguiente comparecencia de Mark Zuckerberg ante una comisión parlamentaria cuyos integrantes ignoraban incluso los aspectos más básicos de lo que es una red social y lo que su actividad supone, han vuelto a poner de actualidad la discusión sobre la evolución de la privacidad en la sociedad.

Que la compañía esté planteándose la posibilidad de aplicar los nuevos estándares de privacidad definidos por la Unión Europea, el Reglamento General de Protección de Datos (GDPR), a los usuarios de todo el mundo, unido a las reacciones negativas de usuarios norteamericanos afectados o alarmados por el escándalo de Cambridge Analytica, podría llevar al desarrollo de normativas más estrictas de protección de la privacidad en los Estados Unidos, y a una consideración mundial de este tipo de legislaciones más garantistas que tratan de otorgar más protecciones y control a los usuarios.

Sin embargo, otros países tienen, obviamente, otros planes. En India, por ejemplo, el despliegue de Aadhaar, la plataforma de identificación de la población basada en datos biométricos tales como la huella dactilar, la fotografía del iris o los rasgos de la cara progresa de manera constante a pesar de los problemas y los escándalos sufridos, parece estar convirtiendo el país en un escenario completamente orwelliano en el que es preciso identificarse para absolutamente todo, sea comprar comida, hacerse con un smartphone o hacer transacciones financieras. La deficiente respuesta del gobierno del país a las denuncias de falta de seguridad debidas bien a ataques o bien a simple corrupción han generado todo tipo de dudas sobre el funcionamiento de un sistema diseñado originalmente para asignar mejor las ayudas gubernamentales a los segmentos más pobres de su población, pero que a través de su funcionamiento como plataforma, ha terminado por impregnar toda la vida cotidiana de los ciudadanos, en un estado en el que todo lo que hagas pasa a ser conocido inmediatamente por quienes controlan el sistema.

En China, las cosas evolucionan de la misma manera: la construcción de una gigantesca base de datos gubernamental de rasgos faciales conectada con los ficheros de la policía, unida a un enorme despliegue de cámaras y a iniciativas privadas pero accesibles al gobierno como sistemas de rating crediticio empieza a entregar sus frutos: una persona, buscada por delitos económicos, es identificada y detenida cuando acudía a un concierto con sesenta mil asistentes, en una prueba que demuestra el estado del arte obtenido a partir de innumerables pruebas y despliegues en determinadas zonas consideradas conflictivas. Una auténtico sistema de pre-crimen capaz no solo de identificar a posibles delincuentes, sino también de aislar y prevenir cualquier comportamiento disidente. Las primeras reacciones de grupos de ciudadanos demandando más respeto a su privacidad e incluso denunciando a compañías por la recolección de sus datos personales pueden suponer el principio de algún tipo de reacción, pero la combinación entre control de la población y búsqueda de una mayor seguridad y estabilidad parece que abocan a China a convertirse igualmente en una sociedad regida por un Gran Hermano omnímodo y sin limitaciones de mandato.

En Rusia, un tribunal ordena el bloqueo de Telegram tras una vista de únicamente dieciocho minutos, tras negarse la compañía a facilitar al gobierno ruso una supuesta clave de cifrado universal que, además, no existe técnicamente como tal. En el núcleo de la cuestión, además de la privacidad y el interés del gobierno ruso por monitorizar todo tipo de comunicación, pueden estar también los lobbies del copyright, que afirman que en Telegram existen infinidad de canales en los que se lleva a cabo intercambio de materiales sujetos a derechos de autor.

Tres grandes países, India, China y Rusia, unidas a Irán con su halal internet, que persiguen un modelo de sociedad en donde la privacidad no es un derecho, sino un peligro, una amenaza a la estabilidad. Frente a ese modelo, una Europa – y posiblemente en el futuro, unos Estados Unidos – que intentan dotarse de mayores garantías, pero en donde el papel de los gobiernos y de la búsqueda de la seguridad tampoco están en absoluto claro, pudiendo caer en la más absoluta de las hipocresías: protejo teóricamente tu privacidad frente a iniciativas privadas que pretender segmentar la publicidad que recibes, pero como gobierno, te espío por si acaso eres un terrorista o por si puedo influenciar tu voto.

Un modelo en el que está todo claro, en el que los gobiernos no ocultan en absoluto sus intenciones y en el que las libertades individuales pasan completamente a un segundo plano, frente a otro supuestamente garantista pero en el que las cosas tampoco están en absoluto claras. Y no, la alternativa de renunciar a todo lo que huela a tecnología y retirarte a lo alto de una montaña tampoco es realista ni recomendableEntre el clavel blanco y la rosa roja, su majestad escoja.

 

 

 

This post is also available in English in my Medium page, “What we should be learning from India, China and Russia’s approach to online privacy

 

IMAGE: Alexlmx - 123RF

China continúa avanzando, sin el más mínimo complejo, en el desarrollo de la mayor herramienta tecnológica de control social jamás desarrollada por el hombre. Desde la llegada al poder de Xi Jinping en marzo de 2013, el gobernante ha mostrado una fortísima obsesión por el control: ha reforzado los conceptos de unidad interna y disciplina en todo el partido, ha puesto en marcha una enorme campaña contra la corrupción, y sobre todo, ha reforzado la vigilancia de la sociedad civil y el discurso ideológico hasta el límite, lo que incluye la censura en internet como herramienta fundamental.

Bajo Xi Jinping, la censura en China no es ya una cuestión coyuntural o un elemento para controlar la velocidad del cambio: se ha convertido en un rasgo fundamental que caracteriza al país, en un elemento de identidad, en un derecho supuestamente inalienable de mantener su soberanía nacional sobre la red. Xi Jinping afirma el derecho de China a ser diferente, a escoger independientemente su propio camino hacia el desarrollo, su modelo de regulación y su participación en la gobernanza del ciberespacio internacional en igualdad de condiciones. La democracia y la libertad de información no son, para China, una obligación o un objetivo hacia el que hay que evolucionar necesariamente: la libre circulación de los contenidos en la red supone una amenaza a su forma de vida, al régimen que gobierna el país, y a la estabilidad en general. 

Tras el XIX Congreso del Partido Comunista chino, la voluntad de reforzar el control social en el país utilizando todos los medios, más allá de internet, ha quedado claramente reafirmada y sancionada como elemento fundamental en su estrategia y planes de futuro. La inversión en tecnología ha llevado a la construcción de la mayor base de datos biométricos del mundo, que ahora, además de desplegarse en las más de 176 millones de cámaras que controlan el territorio – que pretenden llegar hasta los 626 millones en los próximos tres años y que cubren ya, por ejemplo, el 100% del área urbana de Beijing – se extiende incluso a las gafas que llevan sus policías, capaces de simplemente enfocar a una persona y obtener sus datos. La vigilancia se extiende también a la red telefónica, con la mayor base de datos de huellas de voz para identificar a sus ciudadanos en una simple conversación, y a cualquier otro ámbito mediante otra base de datos de registros de ADN.

A esas iniciativas gubernamentales se unen, además, otras iniciativas privadas que colaboran con el estado: todos los ciudadanos reciben una puntuación en función de factores que van desde su consideración crediticia hasta sus actitudes con respecto al gobierno, puntuación que, además, es objeto de esquemas de gamificación: la puntuación de una persona puede verse afectada no solo por sus acciones, sino también por las de aquellos que le rodean, familiares o amigos, lo que de hecho convierte cualquier actitud crítica o disidente en un problema no solo para la persona sino también para su círculo de influencia, llevando rápidamente al aislamiento social de quienes la manifiesten. Además, el uso de herramientas tecnológicas para desplazarse, pagar, relacionarse o llevar a cabo todo tipo de acciones se ha convertido en tan ubicuo, que nadie puede plantearse no utilizarlos, por una cuestión de conveniencia y comodidad, de no convertirse en “un raro” o, directamente, en un sospechoso.

La privacidad, en China, no es un derecho, sino una amenaza. Los ciudadanos viven bajo una vigilancia permanente destinada a mantener la estabilidad. Por mucho que algunas de esas iniciativas privadas generen tímidas reacciones en contra  (las gubernamentales ni se plantean), el país tiene claro que su sistema no es un error o un problema, sino una característica que está dispuesto a defender como parte de su idiosincrasia, como un elemento fundamental en su estrategia. Las generaciones más jóvenes, a la vista del éxito económico que el país está obteniendo y tras haber nacido y crecido en un entorno de rígido control de la información crítica, ya no dudan, y se han convertido en entusiastas defensores de su gobierno, que patrullan las redes e intentan aislar y convencer a los que manifiestan actitudes mínimamente críticas.

Es, sencillamente, un planteamiento diferente de sociedad, en el que cuestiones que en Occidente consideramos derechos fundamentales desaparecen en aras de un beneficio supuestamente mayor, en donde el control social se convierte en la auténtica herramienta política. Pero un planteamiento, además, enormemente exitoso y eficiente, que el país pretende además extender en el futuro al resto del mundo. Durante mucho tiempo, la mayor parte de los países del mundo han evolucionado para considerar la democracia como un valor fundamental en sus sociedades y en su forma de gobierno, como un requisito indispensable: el éxito y la ambición de China y su defensa de estrategias de control social como una vía alternativa suponen, ahora, el replanteamiento más importante de esa idea de cara al futuro.