IMAGE: Teguhjatipras - CC0 Creative CommonsCada vez más noticias apuntan a la popularización y ubicuidad de las tecnologías de reconocimiento facial, en una variedad de ámbitos cada vez mayor. Desde ciudades de todo el mundo erizadas de cámaras, hasta el extremo de control social de las ciudades chinas, en las que en las que no puedes hacer nada sin que tus pasos, las personas con las que estás o los sitios por los que pasas sean almacenados en una base de datos que monitoriza tus costumbres, tus compañías o tu crédito social, pases por delante de una cámara o por delante de las gafas de un policía.

Pero más allá de las calles de nuestras ciudades, las cámaras y el reconocimiento facial empiezan a ser, cada vez más, utilizadas en otros ámbitos. La última polémica ha saltado a partir de las escuelas norteamericanas que intentan prevenir posibles episodios de violencia, probablemente de manera infructuosa dado que los protagonistas suelen ser alumnos del propio centro con acceso autorizado a sus instalaciones: sociedades de defensa de los derechos civiles como ACLU se han posicionado abiertamente en contra de este tipo de sistemas, que consideran inaceptables en un entorno escolar por ser invasivas y con numerosos errores que tienden a afectar especialmente a mujeres y a personas de color.

En las escuelas chinas, un entorno violencia completamente inexistente, no utilizan esta tecnología con ese motivo, sino con uno completamente diferente: monitorizar el rendimiento y la atención de los estudiantes. En varias escuelas piloto, los estudiantes saben que si sus expresiones muestran aburrimiento o si se duermen, sus clases están llenas de cámaras capaces no solo de tomar una prueba gráfica de ello, sino de interpretarlo y etiquetarlo además con los algoritmos adecuados. En algunos ámbitos se especula incluso con la posibilidad de llegar algo más allá, y probar la eficiencia de otra familia de tecnologías, las de vigilancia emocional, ya en uso en el ejército chino y en varias compañías privadas, que sitúan sensores inalámbricos en gorras o sombreros y son capaces, mediante una lectura de las ondas cerebrales, de optimizar cuestiones como las pausas en el trabajo, la reasignación de tareas o la localización física dentro de las instalaciones, y prometen a cambio importantes incrementos de eficiencia.

¿Estamos yendo hacia un futuro de monitorización permanente mediante tecnologías de este tipo? Algunos abiertamente afirman que las tecnologías de reconocimiento facial están aquí para quedarse, y que lo mejor que podríamos hacer es, sencillamente, aceptarlo como un elemento más de las sociedades del futuro. Actitudes tecno-fatalistas de este tipo asumen que incentivos de adopción como los generados por el miedo o por los posibles incrementos de productividad son tan poderosos, que la sociedad no puede dejar de plantearse dejar a un lado sus temores y resistencias, y proceder a la implantación, oficializando la aceptación por la vía de los hechos. En realidad, hablamos de una tecnología por la que nadie va a preguntar a los ciudadanos, y de decisiones de adopción que dependerán, en último término, de gobiernos, autoridades municipales o departamentos de educación. La resistencia pasiva mediante elementos como gafassombreros u otros elementos parece fútil, lo que podría determinar un futuro de adopción con más bien escasas resistencias.

¿Qué hacer si, en efecto, este tipo de tecnologías se disponen, de manera irremediable, a formar una parte integrante de nuestro futuro? ¿Debemos, como instituciones educativas, aceptarlo como tal y proceder a su implantación? Si ese es el caso, entiendo que es fundamental llevar a cabo una reflexión sobre cuál va a ser su papel. En IE Business School, por ejemplo, coincidiendo con el desarrollo de nuestra WoW Room, un aula interactiva con 45 metros cuadrados de pantallas en las que los estudiantes participan en remoto, probamos un algoritmo de engagement, que permite al profesor diagnosticar qué alumnos están prestando atención y cuales están aburridos o distraídos. Los resultados iniciales de su uso, aunque podríamos pensar que algunas resistencias podrían desaarecer con la costumbre y el uso habitual, apuntaron a que los alumnos no se sentían cómodos conociendo la existencia de una herramienta así que pudiese, eventualmente, afectar a sus calificaciones, así que resolvimos utilizarla fundamentalmente como una alerta en tiempo real al profesor: si mientras das tu clase, ves que el número de alumnos aburridos o distraídos se incrementa en algún momento, es que ese contenido, esa parte de la discusión o ese elemento que estás utilizando no está funcionando, y deberías pasarlo más rápidamente o solucionar esa falta de atractivo del contenido de alguna manera.

¿Cómo nos afectaría el uso de cámaras, sistemas de monitorización de ondas cerebrales o algoritmos de ese tipo en entornos de trabajo? En una situación como la actual, cabe esperar que serían utilizados para el control exhaustivo o incluso para sanciones o exclusión de aquellos que son evaluados negativamente. Sin embargo, cabe pensar en otro tipo de entornos con muchos más matices: un trabajador aburrido o distraído no necesariamente implica un trabajador no productivo, sino que puede indicar muchas otras circunstancias. Entornos sometidos a un control de este tipo ya existen, como hace una semana comentaba David Bonilla en una de sus newsletters: en compañías como Crossover, un supervisor evalúa constantemente cada período de trabajo de diez minutos de sus subordinados en función de herramientas de monitorización como WorkSmart, que recopilan estadísticas sobre las aplicaciones y sitios web que tienes abiertos, el timepo que pasas en ellos, tus pulsaciones de teclado y movimientos de ratón y que, cada 10 minutos, aleatoriamente y sin previo aviso, toma una foto desde la cámara del portátil y guarda una captura de lo que tengas en pantalla. Más de 1,500 personas en 80 países colaboran con esta compañía sometidos a la monitorización de esta herramienta, en las que la compañía paga únicamente el tiempo que considera de dedicación plena, no las pausas ni los momentos de distracción.

En escenarios de futuro en los que el trabajo cambia su naturaleza y se convierte en algo voluntario, vocacional o que no forma parte de una obligación necesaria para la subsistencia gracias al desarrollo de sistemas de renta básica incondicional, este tipo de herramientas podrían facilitar sistemas de compensación basados en criterios que optimicen la productividad: si el análisis de un trabajador revela que está somnoliento o distraído, envíalo a dormir o a hacer otra cosa hasta que muestre un incremento en sus capacidades productivas, y optimiza su rendimiento. ¿Aceptable, o una auténtica pesadilla distópica? ¿Nos aboca el futuro necesariamente a un escenario en el que el uso de tecnologías de reconocimiento facial, expresiones o incluso análisis de ondas cerebrales nos ubique en entornos de vigilancia y monitorización permanente? ¿Debe la formación incorporar ese tipo de tecnologías para facilitar una familiarización con ellas y un uso adecuado y conforme a unos estándares éticos? ¿Debemos las instituciones educativas a todos los niveles intentar preparar a nuestros alumnos para unos escenarios futuros que parecen cada vez más reales, más tangibles y más inevitables? ¿O debemos ignorarlos como si esa adopción tecnológica no estuviese teniendo lugar? ¿Existen alternativas?

 

Nos hemos quedado con tu cara - El País

Joseba Elola, de El País, me llamó para hablar sobre los nuevos desarrollos en reconocimiento facial y las consecuencias que podrían llegar a tener en el futuro, y anteayer citó algunos de mis comentarios en su reportaje titulado “Nos hemos quedado con tu cara“.

Cuando hablamos de reconocimiento facial, hablamos en realidad de una tecnología con la que llevamos conviviendo ya mucho tiempo. Podemos construir un sistema de reconocimiento facial con cierto nivel de precisión con una simple Raspberry Pi de 29 euros y unos pocos componentes más. En los últimos tiempos, sin embargo, los avances en la capacidad de procesamiento, en la resolución de las imágenes y en los algoritmos de reconocimiento ya permiten que utilicemos esa tecnología con toda normalidad y prácticamente sin errores para desbloquear nuestro smartphone muchas veces al día, con un nivel de seguridad que impida la gran mayoría de los trucos habituales o razonables, y que esa identificación pueda, además, ser compartida con otras aplicaciones con el fin de proporcionar un adecuado balance entre comodidad y seguridad.

Al tiempo, las aplicaciones de la tecnología han ido incrementándose, y supuestamente en aras de una seguridad cada vez mayor hemos ido pasando de sistemas destinados a localizar a personas que habían cometido delitos y que, en función de los mismos, pasaban a estar incluidos en determinadas bases de datos, a la recolección de esas mismas bases de datos incluyendo los datos de ciudadanos completamente inocentes, no implicados en la comisión de delito alguno. En países como los Estados Unidos, China, India y muchos más la recolección de datos biométricos se está convirtiendo en cada vez más habitual, con todo lo que ello conlleva, incluyendo problemas de seguridad. Con que simplemente tengas una identificación en los Estados Unidos o hayas entrado por sus fronteras, los parámetros de tu cara ya están registrados en bases de datos gubernamentales que pueden permitir tu identificación bajo determinadas circunstancias. En China, el experimento de Xinjiang, en donde se han desplegado este tipo de tecnologías para luchar contra la supuesta amenaza del secesionismo uygur, la posibilidad de identificar a una persona a partir de un simple paso de pocos segundos por delante de cualquier cámara en la calle es ya una realidad.

La misma tecnología es utilizada en entornos como Facebook para reconocer tu imagen incluso en fotografías en las que no hayas sido etiquetado, aunque esta tecnología no es utilizada en Europa o en Canadá debido a restricciones legales. En Rusia, como comentamos hace algún tiempo, hay apps que trabajan con las fotografías de la ubicua red social VK para reconocer a personas con las que puedes simplemente haberte cruzado por la calle: la combinación del reconocimiento facial con el hecho de que todos llevemos una potente cámara en el bolsillo: el auténtico “Shazam para personas”.

Estamos en una compleja transición entre una sociedad que valora la comodidad y otra dispuesta a buscar la seguridad a costa de la privacidad. En poco tiempo, será perfectamente normal ya no solo que nuestro smartphone o nuestro ordenador se desbloqueen con nuestra cara, sino también que la cerradura de nuestra puerta de casa se abra simplemente cuando llegamos a ella, que nuestro coche solo arranque cuando seamos nosotros o quienes hayamos autorizado los que estén sentados al volante, o que el cajero del banco nos dispense dinero cuando nos identifique positivamente. Pero al tiempo, se convertirá en completamente normal que existan registros de nuestro paso por cámaras situadas en todas partes, que se niegue a determinadas personas el paso a según qué sitios o cientos de situaciones más que hoy a muchos todavía les parecen de ciencia-ficción. La progresiva ubicuidad del reconocimiento facial trae consigo un cambio definitivo del modelo de sociedad que conocemos, y no tengo claro que el consenso social necesario para ese cambio haya sido objeto de consulta en ningún sitio. Una sociedad diferente, en la que nuestra identificación instantánea no dependerá de la exhibición voluntaria o consciente de un documento, sino que formará parte de algo de lo que difícilmente nos podemos desprender. Con todo lo que ello conlleva.