CCTV classroom¿Cómo van a ser las escuelas e instituciones educativas del futuro? Si hacemos caso a las tendencias que están surgiendo tanto en los Estados Unidos como en China, es posible que sean entornos bastante alejados de lo que muchos imaginan. De hecho, todo indica que podrían plantearse como escenarios de permanente monitorización, en los que los estudiantes estarán sometidos constantemente a vigilancia por parte de cámaras, algoritmos y todo tipo de tecnologías diseñadas para obtener información de manera constante a partir de todos los aspectos de su comportamiento.

Si hace no demasiado tiempo hablábamos del uso de la tecnología de reconocimiento facial en escuelas norteamericanas para prevenir episodios de violencia, y de la opinión contraria de las asociaciones de derechos civiles, que las consideraban inaceptables en un entorno escolar, ahora encontramos ya desarrollos de inteligencia artificial que monitorizan todo lo que los estudiantes teclean en sus ordenadores y tabletas con el fin de descubrir pautas de posibles episodios de violencia, bullying, suicidios u otros problemas.

En los Estados Unidos, este tipo de escenarios deriva de la aplicación de la Children’s Internet Protection Act (CIPA), que obliga a toda escuela que reciba fondos federales a mantener una política de seguridad para el uso de internet por parte de los alumnos, y que incluye la instalación de herramientas de monitorización en todos los equipos, tales como tabletas, ordenadores o Chromebooks, que las instituciones faciliten a sus estudiantes. Mientras algunas escuelas se limitan a la instalación de filtros para contenidos considerados inadecuados, otras prefieren recurrir a paquetes especializados como Gaggle, GoGuardian o Securly para tratar de descubrir escenarios potencialmente conflictivos a partir de toda la información suministrada por el usuario, tanto los sitios que visita y el uso general que hace del equipo, como incluso los contenidos que teclea. Otros compañías, como Hoonuit o Microsoft, han desarrollado algoritmos predictivos para analizar la probabilidad individual de abandono de los estudios, llevados por políticas que amparan la recolección prácticamente ilimitada de datos de los estudiantes desde los niveles educativos más elementales. 

Pero este tipo de tecnologías no están solas en el desarrollo de espacios sensorizados o monitorizados en el ámbito educativo: de cara al curso que viene, la Universidad de Saint Louis está llenando todos sus espacios comunes con dispositivos Echo Dot de Amazon, que permitirán a los estudiantes hacerles preguntas en cualquier momento, y contarán con repositorios para cuestiones relacionadas, por ejemplo, con instalaciones, horarios y otras preguntas habituales en el entorno universitario. Los dispositivos se ubicarán en zonas comunes, como aulas de trabajo, pero también en las habitaciones de los estudiantes que utilicen las residencias y apartamentos ofrecidos por la universidad, en lo que supone uno de los despliegues más grandes que se han diseñado para este tipo de dispositivos. Y, para muchos, un escenario de posible amenaza a la privacidad.

Microsoft ha adquirido y convertido en gratuita una herramienta, Flipgrid, para la creación de escenarios de discusión utilizando vídeo, siguiendo una tendencia que lleva a cada vez más institutos y universidades a posibilitar el uso de plataformas online como vehículo educativo que permitan un análisis más detallado y riguroso de todo el proceso participativo. Los comentarios que antes se quedaban en una discusión en clase, ahora serán almacenados y procesados individualmente, lo cual no tendría que ser necesariamente malo, pero podría también contribuir al desarrollo de ese entorno de monitorización y control permanente en lo que todo lo que el estudiante hace, dice o piensa pasa a formar parte de un archivo permanente que lo caracteriza.

En China, algunos institutos están empezando a utilizar la monitorización facial de los alumnos en clase ya no para obtener su identidad, sino para detectar sus actitudes en cada momento. En una escuela en Hangzhou, por ejemplo, tres cámaras en la clase escanean las caras de los estudiantes para tratar de detectar su estado de ánimo, clasificarlo entre sorpresa, tristeza, antipatía, enojo, felicidad, temor o neutro, registrarlo y promediarlo durante cada clase. Además, el crecimiento en el uso de herramientas de machine learning para la corrección de exámenes permite obtener de manera automática datos sobre el desempeño, e incluso, detectar cuándo los estudiantes copian. En algún momento, podríamos incluso pensar en la adopción por parte de las instituciones educativas de herramientas de monitorización de la actividad cerebral, ya en uso en el ejército y en algunas compañías chinas.

En Francia, más conocida en este momento por la prohibición de llevar smartphones al colegio que entrará en vigor en este curso, hay al menos un instituto privado católico en París que ha decidido obligar a sus estudiantes a llevar un dispositivo Bluetooth para controlar su presencia y evitar que falten a clase, so pena de ser multados con diez euros cada vez que lo olviden en casa o lo pierdan.

¿Qué tipo de escenarios podemos esperar para la educación en el futuro? ¿Tecnologías pensadas para maximizar el aprendizaje y crear entornos agradables, o un adelanto de distopía que prepare a los jóvenes para una sociedad de monitorización constante y permanente en la que se encontrarán, gracias a su educación, como peces en el agua? Podemos justificarlo como forma de mejorar el rendimiento académico, como intentos de mejorar la seguridad y de intentar evitar determinados peligros, como una manera de preparar a los alumnos para los entornos profesionales en los que van a desempeñar su futuro profesional, o de muchas otras formas, pero el caso es que este tipo de noticias están proliferando, y están cambiando de manera muy rápida la imagen de la educación en países tan diferentes como los Estados Unidos, China o Francia. Soy un convencido del poder de la analítica de cara a la mejora de los procesos educativos, pero creo que sería importante tener una discusión informada acerca de su uso e implicaciones de cara a cuestiones como la privacidad, la seguridad o la disciplina, si queremos evitar que muchas decisiones que se disponen a condicionar el futuro de la sociedad sean tomadas de facto, sin un proceso de reflexión adecuado.

 

IMAGE: B137 - CC BY SAUn profesor de Carnegie Mellon, Sean Qian, y su estudiante doctoral, Pinchao Zhang, han llevado a cabo una investigación sobre el consumo eléctrico de 322 hogares anónimos a lo largo de 79 días en la ciudad de Austin (Texas), y han sido capaces de alimentar con esos datos un algoritmo capaz de predecir los patrones del tráfico matutino, el momento y lugar de los atascos, de una manera mucho más precisa que analizando los datos de tráfico en tiempo real.

La idea muestra las posibilidades de la monitorización de datos de consumo y el papel del machine learning en la regulación de los ecosistemas humanos: para la detección, no es preciso conocer el tipo de consumo, el electrodoméstico utilizado o ningún tipo de dato personal de los usuarios: simplemente se trata de monitorizar patrones de consumo genéricos, de caracterizar los hábitos de los usuarios convenientemente anonimizados, y de desarrollar y alimentar con ellos un modelo predictivo. Los datos de tráfico en tiempo real resultan mucho menos útiles a la hora de predecir el tráfico y generan entornos en los que las posibilidades de gestión son mucho más bajas que los obtenidos mediante este tipo de análisis, lo que podría permitir el desarrollo de diversas acciones correctoras, consejos a los usuarios, etc.

IMAGE: Mike DelGaudio - CC BYEl uso de patrones de consumo eléctrico ofrece una gran variedad de posibilidades, y puede dar lugar a analíticas cada vez más interesantes que mejoren el uso de los ecosistemas urbanos. A medida que la progresiva electrificación de los hogares y el uso de contadores inteligentes permite obtener patrones cada vez más precisos, así como caracterizar, por ejemplo, elementos del consumo característicos, como los vehículos eléctricos. Un entorno así, combinado con elementos sociales como los comentarios en redes o el uso de aplicaciones como Waze ofrecen un potencial de datos de una gran riqueza que, de hecho, están ya siendo utilizados como canales de comunicación para tratar de gestionar determinadas situaciones y circunstancias del tráfico.

El caso de Waze es especialmente interesante: la app creada por la compañía israelí, adquirida por Google en 2013, supone un patrón de uso dramáticamente diferente del existente en la gran mayoría de las apps de GPS: la mayoría de sus usuarios no la utilizan cuando quieren averiguar cómo llegar a un sitio específico, sino de manera habitual cuando conducen para ir, por ejemplo, a su casa o a su trabajo, lugares que conocen perfectamente, con el fin precisamente de monitorizar los patrones del tráfico o enterarse de posibles circunstancias que puedan afectar su evolución. Esa idea de “el GPS que utilizo todo el tiempo” permite que, por ejemplo, las agencias gubernamentales lo utilicen para, por ejemplo, alertar sobre el uso de un carril reversible o de la localización de un accidente, uniéndose a muchos otros usuarios que envían esos detalles también a través de la app, al tiempo que permiten el uso de sus datos de geolocalización y velocidad en cada vía y en cada momento. Google integra datos de Waze para introducir en Google Maps los detalles del tráfico, pero la app sigue, además, funcionando de manera independiente.

Otras apps diseñadas para el transporte urbano, como Citymapper, que utilizan datos en tiempo real sobre el transporte público e incorporan cada vez más medios de transporte alternativos como bicicletas o patinetes, son también susceptibles de generar también patrones de uso continuo, en los que un usuario las lleva activadas en todo momento para seguir las circunstancias de su ruta, obtener un tiempo estimado de llegada y estar al tanto de las posibles incidencias a lo largo del proceso, y podrían servir igualmente tanto como fuente de datos del sistema o como medio de comunicación personalizado con los usuarios. Otras, como las utilizadas por gestores de flota como Uber, permiten elementos que van mucho más allá, y que llegan al control de las circunstancias de la conducción para detectar patrones como frenadas bruscas, velocidad excesiva o curvas tomadas de manera que puedan generar incomodidad al pasajero.

La posibilidad de combinar ese tipo de datos junto con los de consumo eléctrico podría dar lugar a sistemas de control mucho más eficientes que los actuales, capaces de generar de manera mucho más precisa un estimado del tiempo de transporte en función de las circunstancias del tráfico, junto con consejos individualizados para cada uno de los usuarios. Un sistema de elevada complejidad – no todos los usuarios participan en él, y la participación no implica necesariamente que la recomendación de la app sea seguida – pero que tiene todos los elementos para poder ser adecuadamente gestionado mediante un algoritmo de machine learning.

Moverse por las ciudades del futuro no va a tener nada que ver con lo que es ahora, y no solo por los más que previstos cambios en los medios de comunicación o el paso del automóvil desde su estatus actual de producto al de servicio… va a ser un sistema de incorporación continua de datos de todo tipo de fuentes, de apps y flotas que proporcionan esos datos anonimizados a los ayuntamientos como parte de su contrato de licencia para operar en las ciudades, analizados en tiempo real por los correspondientes algoritmos de machine learning. Que los gestores municipales vayan pensando en cómo ponerse las pilas de cara a ese nuevo entorno.

 

IMAGE: Teguhjatipras - CC0 Creative CommonsCada vez más noticias apuntan a la popularización y ubicuidad de las tecnologías de reconocimiento facial, en una variedad de ámbitos cada vez mayor. Desde ciudades de todo el mundo erizadas de cámaras, hasta el extremo de control social de las ciudades chinas, en las que en las que no puedes hacer nada sin que tus pasos, las personas con las que estás o los sitios por los que pasas sean almacenados en una base de datos que monitoriza tus costumbres, tus compañías o tu crédito social, pases por delante de una cámara o por delante de las gafas de un policía.

Pero más allá de las calles de nuestras ciudades, las cámaras y el reconocimiento facial empiezan a ser, cada vez más, utilizadas en otros ámbitos. La última polémica ha saltado a partir de las escuelas norteamericanas que intentan prevenir posibles episodios de violencia, probablemente de manera infructuosa dado que los protagonistas suelen ser alumnos del propio centro con acceso autorizado a sus instalaciones: sociedades de defensa de los derechos civiles como ACLU se han posicionado abiertamente en contra de este tipo de sistemas, que consideran inaceptables en un entorno escolar por ser invasivas y con numerosos errores que tienden a afectar especialmente a mujeres y a personas de color.

En las escuelas chinas, un entorno violencia completamente inexistente, no utilizan esta tecnología con ese motivo, sino con uno completamente diferente: monitorizar el rendimiento y la atención de los estudiantes. En varias escuelas piloto, los estudiantes saben que si sus expresiones muestran aburrimiento o si se duermen, sus clases están llenas de cámaras capaces no solo de tomar una prueba gráfica de ello, sino de interpretarlo y etiquetarlo además con los algoritmos adecuados. En algunos ámbitos se especula incluso con la posibilidad de llegar algo más allá, y probar la eficiencia de otra familia de tecnologías, las de vigilancia emocional, ya en uso en el ejército chino y en varias compañías privadas, que sitúan sensores inalámbricos en gorras o sombreros y son capaces, mediante una lectura de las ondas cerebrales, de optimizar cuestiones como las pausas en el trabajo, la reasignación de tareas o la localización física dentro de las instalaciones, y prometen a cambio importantes incrementos de eficiencia.

¿Estamos yendo hacia un futuro de monitorización permanente mediante tecnologías de este tipo? Algunos abiertamente afirman que las tecnologías de reconocimiento facial están aquí para quedarse, y que lo mejor que podríamos hacer es, sencillamente, aceptarlo como un elemento más de las sociedades del futuro. Actitudes tecno-fatalistas de este tipo asumen que incentivos de adopción como los generados por el miedo o por los posibles incrementos de productividad son tan poderosos, que la sociedad no puede dejar de plantearse dejar a un lado sus temores y resistencias, y proceder a la implantación, oficializando la aceptación por la vía de los hechos. En realidad, hablamos de una tecnología por la que nadie va a preguntar a los ciudadanos, y de decisiones de adopción que dependerán, en último término, de gobiernos, autoridades municipales o departamentos de educación. La resistencia pasiva mediante elementos como gafassombreros u otros elementos parece fútil, lo que podría determinar un futuro de adopción con más bien escasas resistencias.

¿Qué hacer si, en efecto, este tipo de tecnologías se disponen, de manera irremediable, a formar una parte integrante de nuestro futuro? ¿Debemos, como instituciones educativas, aceptarlo como tal y proceder a su implantación? Si ese es el caso, entiendo que es fundamental llevar a cabo una reflexión sobre cuál va a ser su papel. En IE Business School, por ejemplo, coincidiendo con el desarrollo de nuestra WoW Room, un aula interactiva con 45 metros cuadrados de pantallas en las que los estudiantes participan en remoto, probamos un algoritmo de engagement, que permite al profesor diagnosticar qué alumnos están prestando atención y cuales están aburridos o distraídos. Los resultados iniciales de su uso, aunque podríamos pensar que algunas resistencias podrían desaarecer con la costumbre y el uso habitual, apuntaron a que los alumnos no se sentían cómodos conociendo la existencia de una herramienta así que pudiese, eventualmente, afectar a sus calificaciones, así que resolvimos utilizarla fundamentalmente como una alerta en tiempo real al profesor: si mientras das tu clase, ves que el número de alumnos aburridos o distraídos se incrementa en algún momento, es que ese contenido, esa parte de la discusión o ese elemento que estás utilizando no está funcionando, y deberías pasarlo más rápidamente o solucionar esa falta de atractivo del contenido de alguna manera.

¿Cómo nos afectaría el uso de cámaras, sistemas de monitorización de ondas cerebrales o algoritmos de ese tipo en entornos de trabajo? En una situación como la actual, cabe esperar que serían utilizados para el control exhaustivo o incluso para sanciones o exclusión de aquellos que son evaluados negativamente. Sin embargo, cabe pensar en otro tipo de entornos con muchos más matices: un trabajador aburrido o distraído no necesariamente implica un trabajador no productivo, sino que puede indicar muchas otras circunstancias. Entornos sometidos a un control de este tipo ya existen, como hace una semana comentaba David Bonilla en una de sus newsletters: en compañías como Crossover, un supervisor evalúa constantemente cada período de trabajo de diez minutos de sus subordinados en función de herramientas de monitorización como WorkSmart, que recopilan estadísticas sobre las aplicaciones y sitios web que tienes abiertos, el timepo que pasas en ellos, tus pulsaciones de teclado y movimientos de ratón y que, cada 10 minutos, aleatoriamente y sin previo aviso, toma una foto desde la cámara del portátil y guarda una captura de lo que tengas en pantalla. Más de 1,500 personas en 80 países colaboran con esta compañía sometidos a la monitorización de esta herramienta, en las que la compañía paga únicamente el tiempo que considera de dedicación plena, no las pausas ni los momentos de distracción.

En escenarios de futuro en los que el trabajo cambia su naturaleza y se convierte en algo voluntario, vocacional o que no forma parte de una obligación necesaria para la subsistencia gracias al desarrollo de sistemas de renta básica incondicional, este tipo de herramientas podrían facilitar sistemas de compensación basados en criterios que optimicen la productividad: si el análisis de un trabajador revela que está somnoliento o distraído, envíalo a dormir o a hacer otra cosa hasta que muestre un incremento en sus capacidades productivas, y optimiza su rendimiento. ¿Aceptable, o una auténtica pesadilla distópica? ¿Nos aboca el futuro necesariamente a un escenario en el que el uso de tecnologías de reconocimiento facial, expresiones o incluso análisis de ondas cerebrales nos ubique en entornos de vigilancia y monitorización permanente? ¿Debe la formación incorporar ese tipo de tecnologías para facilitar una familiarización con ellas y un uso adecuado y conforme a unos estándares éticos? ¿Debemos las instituciones educativas a todos los niveles intentar preparar a nuestros alumnos para unos escenarios futuros que parecen cada vez más reales, más tangibles y más inevitables? ¿O debemos ignorarlos como si esa adopción tecnológica no estuviese teniendo lugar? ¿Existen alternativas?

 

IMAGE: Loulia Bolchakova - 123RFUn artículo en The Guardian, Big Brother isn’t just watching: workplace surveillance can track your every move, permite observar cómo está evolucionando la vigilancia de los trabajadores en los Estados Unidos, en donde la discusión sobre la vigilancia en entornos laborales no se ha visto afectada por la sentencia del caso Bărbulescu v. Rumanía que afirma que “las instrucciones del empresario no pueden reducir a cero la vida social privada en el lugar de trabajo”.

El artículo describe un panorama completamente agobiante definido no solo por la vigilancia durante las horas de trabajo o por el control de las comunicaciones de todo tipo, sino incluso por sistemas como patrones de navegación online, lectores de teclado, monitorización de mensajería instantánea, redes sociales, etc. La auténtica disfuncionalidad de los entornos profesionales, en los que el nivel de vigilancia se eleva hasta el más absoluto de los absurdos en manos de directivos controladores hasta el límite del absurdo, patéticos aprendices de los peores tiempos de la Stasi.

Compañías que vigilan a sus empleados hasta el punto de conectar la cámara de sus ordenadores cada diez minutos, revisando sus comunicaciones o utilizando métricas como el número de correos electrónicos enviados, el número de teclas pulsadas o las horas delante de la pantalla como indicadores de productividad, amparándose en requisitos legales como la necesidad de controlar las comunicaciones en empresas financieras para evitar casos de uso de información privilegiada, o en otras industrias para controlar el cumplimiento de requisitos regulatorios (compliance). Como ocurre siempre en este tipo de casos, la vigilancia diseñada para evitar un comportamiento ilegal disuade inmediatamente al interesado en llevarlo a cabo, que pasa a optar por otros canales o metodologías, y se convierte en una manera de vigilar de manera completamente injustificada a todos los demás. Metodologías de control que deberían limitarse a un examen excepcional en caso de sospecha, convertidas en objeto de control habitual exhaustivo y agobiante, en formas absurdas de pretender reducir la actividad profesional a la labor de un autómata.

El artículo de The Guardian examina productos de compañías como Crossover, InterGuard, Wiretap, Teramind, Digital Reasoning, Qumram, Fama y otras similares que, con la excusa de promover entornos profesionales más seguros, más controlados o con menores riesgos pueden ser utilizadas para generar unos niveles de vigilancia y monitorización que deberían ser considerados como absolutamente inaceptables, y que atacan la misma esencia de la dignidad humana. En efecto, la tecnología nos ofrece posibilidades inigualables para hacer determinadas cosas, pero… ¿es bueno realmente hacerlas y llevar esas posibilidades hasta su límite? Una lectura interesante que permite entrever un conjunto de tendencias preocupantes, que afortunadamente tienen más limitaciones regulatorias en entornos europeos, pero que no sería extraño ver planteadas en el contexto de determinadas culturas empresariales.

Si como directivo piensas que la tecnología es una herramienta para generar ambientes de vigilancia y control total, tienes un serio problema psicológico. Nada, ni la compliance, ni los riesgos de seguridad ni la productividad justifica que sometas a tus trabajadores a entornos de ese tipo. Por muchas posibilidades que ofrezca la tecnología, los entornos de trabajo del futuro tienen necesariamente que evolucionar de otra manera.

 

IMAGE: Loulia Bolchakova - 123RFUn artículo en The Guardian, Big Brother isn’t just watching: workplace surveillance can track your every move, permite observar cómo está evolucionando la vigilancia de los trabajadores en los Estados Unidos, en donde la discusión sobre la vigilancia en entornos laborales no se ha visto afectada por la sentencia del caso Bărbulescu v. Rumanía que afirma que “las instrucciones del empresario no pueden reducir a cero la vida social privada en el lugar de trabajo”.

El artículo describe un panorama completamente agobiante definido no solo por la vigilancia durante las horas de trabajo o por el control de las comunicaciones de todo tipo, sino incluso por sistemas como patrones de navegación online, lectores de teclado, monitorización de mensajería instantánea, redes sociales, etc. La auténtica disfuncionalidad de los entornos profesionales, en los que el nivel de vigilancia se eleva hasta el más absoluto de los absurdos en manos de directivos controladores hasta el límite del absurdo, patéticos aprendices de los peores tiempos de la Stasi.

Compañías que vigilan a sus empleados hasta el punto de conectar la cámara de sus ordenadores cada diez minutos, revisando sus comunicaciones o utilizando métricas como el número de correos electrónicos enviados, el número de teclas pulsadas o las horas delante de la pantalla como indicadores de productividad, amparándose en requisitos legales como la necesidad de controlar las comunicaciones en empresas financieras para evitar casos de uso de información privilegiada, o en otras industrias para controlar el cumplimiento de requisitos regulatorios (compliance). Como ocurre siempre en este tipo de casos, la vigilancia diseñada para evitar un comportamiento ilegal disuade inmediatamente al interesado en llevarlo a cabo, que pasa a optar por otros canales o metodologías, y se convierte en una manera de vigilar de manera completamente injustificada a todos los demás. Metodologías de control que deberían limitarse a un examen excepcional en caso de sospecha, convertidas en objeto de control habitual exhaustivo y agobiante, en formas absurdas de pretender reducir la actividad profesional a la labor de un autómata.

El artículo de The Guardian examina productos de compañías como Crossover, InterGuard, Wiretap, Teramind, Digital Reasoning, Qumram, Fama y otras similares que, con la excusa de promover entornos profesionales más seguros, más controlados o con menores riesgos pueden ser utilizadas para generar unos niveles de vigilancia y monitorización que deberían ser considerados como absolutamente inaceptables, y que atacan la misma esencia de la dignidad humana. En efecto, la tecnología nos ofrece posibilidades inigualables para hacer determinadas cosas, pero… ¿es bueno realmente hacerlas y llevar esas posibilidades hasta su límite? Una lectura interesante que permite entrever un conjunto de tendencias preocupantes, que afortunadamente tienen más limitaciones regulatorias en entornos europeos, pero que no sería extraño ver planteadas en el contexto de determinadas culturas empresariales.

Si como directivo piensas que la tecnología es una herramienta para generar ambientes de vigilancia y control total, tienes un serio problema psicológico. Nada, ni la compliance, ni los riesgos de seguridad ni la productividad justifica que sometas a tus trabajadores a entornos de ese tipo. Por muchas posibilidades que ofrezca la tecnología, los entornos de trabajo del futuro tienen necesariamente que evolucionar de otra manera.