IMAGE: John Phelan (CC BY)El MIT anuncia la creación de un nuevo centro, el Stephen A. Schwarzman College of Computing, dedicado a reorientar la institución para llevar el poder de la computación y la inteligencia artificial a todos los campos de estudio, posibilitando que el futuro de la computación y la inteligencia artificial se forme a partir de ideas de todas las otras disciplinas. La idea es utilizar la AI, el machine learning y la ciencia de datos con otras disciplinas académicas para “educar a los profesionales bilingües del futuro”, entendiendo como bilingües a personas en campos como la biología, la química, la política, la historia o la lingüística que también tienen experiencia en las técnicas de computación moderna que pueden ser aplicadas a ellos.

El centro se crea con un presupuesto de mil millones de dólares tras la aportación de $350 millones de la persona que le da nombre, Stephen A. Schwarzman, CEO de The Blackstone Group, la  trigésima cuarta persona más rica del mundo según el ranking de Forbes, y convierte a la institución en la que más claramente identifica el potencial futuro de una disciplina llamada a cambiar completamente el mundo tal y como lo conocemos. La idea de establecer el centro como una estructura propia y con un carácter fuertemente multidisciplinar refuerza la frase que llevo utilizando bastante tiempo tras leerla en un muy recomendable artículo de Erik Brynjolfsson y Andrew McAfee titulado The business of Artificial Intelligence, y que afirma que 

… durante la próxima década, la IA no reemplazará a los directivos, pero los directivos que utilizan la IA reemplazarán a los que no lo hacen”

El planteamiento de un centro multidisciplinar completamente independiente abre este planteamiento más allá del management, y afirma que un proceso similar, el desplazamiento de los profesionales tradicionales a manos de aquellos que saben utilizar herramientas como la AI, el machine learning o la ciencia de datos, ocurrirá en prácticamente todas las disciplinas. Un proceso de este tipo lo podemos ver ya en campos tan diferentes como el ya citado management, en el que compañías de todo el mundo adquieren herramientas analíticas para llevar a cabo la predicción y la automatización inteligente de procesos a partir de sistemas que aprenden de los datos, o las ciencias de la salud, en las que los profesionales se preguntan qué van a hacer cuando una buena parte de su trabajo, como los diagnósticos, sean llevados a cabo por herramientas algorítmicas.

La semana pasada, Google presentó estudios que demuestran que sus algoritmos de análisis de imagen son capaces ya de identificar tumores en cánceres de mama con un 99% de precisión. Otros estudios publicados en journals de prestigio afirman que pruebas diagnósticas como los ecocardiogramas pueden ya ser interpretados de manera completamente automática. El pasado año, cuando en el evento de innovación de Netexplo en París me pidieron que presentase a uno de los ganadores, la compañía india de diagnóstico de imagen médica Qure.ai, mi conversación con una de sus fundadoras en el escenario trató de explorar precisamente el aspecto de la supuesta sustitución: ¿cómo se sentían los radiólogos cuando, tras haber cedido sus archivos de imágenes a la compañía para que adiestrase su algoritmo, veían que este era capaz de diagnosticar tumores con mayor precisión que los propios facultativos? La respuesta fue clara: tras un breve período de adaptación, los profesionales de la medicina decidían que estaban mejor dejando que fuese el algoritmo el que llevase a cabo ese trabajo – algunos diagnósticos suponen, en ocasiones, examinar decenas o cientos de imágenes muy parecidas – y decidían dedicar su tiempo a otras tareas que consideraban más productivas. De hecho, algunos manifestaron que en la próxima generación de médicos, la habilidad de tomar una radiografía, mirarla y aventurar un diagnóstico sobre ella se perdería completamente, y sería vista como algo peligroso que los médicos hacían en la antigüedad. De nuevo, la misma respuesta: en los hospitales de todo el mundo, los algoritmos no sustituirán a los radiólogos, a los mamografistas ni a los ecocardiografistas… pero los profesionales que sepan utilizar inteligencia artificial y machine learning en sus diagnósticos sustituirán a los que no lo hacen, que incluso pasarán a ser vistos como un mayor riesgo para los pacientes.

El MIT no ha sido la única institución académica en entenderlo así, pero sí ha sabido ser la primera y la más visible a la hora de embarcarse en una iniciativa tan profundamente ambiciosa sobre el tema: en IE University llevamos muchos años haciendo que los profesores de nuestros programas más especializados en analítica y ciencia de datos se conviertan en una fuente de cursos para otros programas generalistas en disciplinas completamente diferentes, planteando grados con doble titulación que solapan ambas disciplinas, e introduciendo las humanidades como una parte fundamental del curriculum en todos los grados, como una manera de reflejar esa misma preocupación e intentar dar forma a los profesionales del futuro.

Tratemos de plantearlo así: en cada profesión, la inteligencia artificial y el machine learning encontrarán aplicaciones que, al cabo de un cierto tiempo, mejorarán las prestaciones de los humanos llevando a cabo esas mismas tareas. Para educar a esos nuevos profesionales, será fundamental que entiendan el funcionamiento de los algoritmos de inteligencia artificial y machine learning que utilizan, no solo para evitar un posible mal funcionamiento como el de ese algoritmo que, en Amazon, decidió dejar de contratar mujeres basándose en los datos históricos de la compañía, sino también para poder idear y diseñar nuevos procesos de innovación que apliquen la potencia de esos nuevos desarrollos tecnológicos y de otros aún más potentes que surgirán en el futuro.

El paradigma de la sustitución es, de por sí, autolimitante y peligroso. Nadie en su sano juicio entendería que insistiésemos en que le diagnosticase un médico humano en lugar de un algoritmo capaz de hacerlo con mucha más precisión, del mismo modo que muy pronto, nadie entenderá que pretendamos conducir nuestros automóviles sabiendo como sabemos que somos la fuente de la inmensa mayoría de los accidentes, cuando existen algoritmos capaces de hacerlo muchísimo mejor y de manera infinitamente más segura. Tratar de preservar empleos a costa de hacer mejor las cosas es una estrategia perdedora.

 

IMAGE: Roberto ArribasDentro de la programación del Hay Festival que está teniendo lugar en Segovia, esta mañana tuve la oportunidad de mantener una interesante conversación con Marta García Aller, periodista, profesora y autora del muy inspirador libro “El fin del mundo tal y como lo conocemos” y con Scott Hartley, ex-Google, capitalista de riesgo, profesor en el Harvard’s Berkman Center for Internet & Society y autor de otro libro también interesantísimo, The fuzzy and the techie. Una de esas oportunidades en las que, de verdad que no es por ser tópico, se termina el tiempo y te parece que llevas cinco minutos y que seguirías hablando horas con esas personas y sobre ese tema. Si consigo localizar alguna grabación de la sesión, la enlazaré aquí. 

Marta abrió con dos preguntas provocativas, sobre noticias de ayer de El Mundo y El País: la primera, sobre el sexo con robots y su posible regulación (un tema sobre el que hemos hablado en algunas ocasiones y al que, de hecho, suelo recurrir cuando me parece que una clase no tiene una dinámica suficientemente participativa). La segunda, sobre el fútbol, y concretamente sobre la posibilidad de que un algoritmo sea capaz de predecir lesiones o, especulando, que pueda llegar a tomar decisiones sobre los sueldos que deberían cobrar. Indudablemente, una manera de entrar en el debate por la puerta grande con temas populares como el sexo y el fútbol, pero que rápidamente dio paso a cuestiones mucho más centradas en el tema central de la sesión: hasta qué punto son importantes las habilidades humanas y los conocimientos no intrínsecamente tecnológicos en un futuro aparentemente cada vez más dominado por las maquinas.

Mi intento de aporta cuestiones interesantes al debate se centró en el hecho de que cada día más, lo importante no es la tecnología, sino los procesos de adopción de esa tecnología. Cada día tengo menos dudas acerca de las posibilidades de la tecnología de estar a la altura y ofrecer soluciones a la práctica totalidad de los problemas del mundo actual: podríamos perfectamente recurrir a la tecnología para reducir las emisiones de dióxido de carbono a la atmósfera hasta prácticamente la mitad, o para reducir a un porcentaje casi testimonial los muertos en carretera, por citar dos problemas importantes a muy diferentes niveles… pero sencillamente, no lo hacemos, porque los procesos de adopción están detenidos por resistencias que deberían avergonzar hasta el límite a todos los que las manifiestan, pero que siguen ahí, sólidamente cimentadas, impidiendo que resolvamos problemas importantísimos: decisiones políticas, ignorancia y tópicos, cuestiones económicas, el bienestar de los que se dedican a conducir vehículos, los beneficios de las empresas que los construyen o de las que extraen y comercializan petróleo, o las supuestas libertades individuales – algunos lo equiparan hasta con un supuesto “derecho humano a conducir vehículos con motor de explosión” – de las personas para decidir cómo, cuándo y qué conducen, como si existiese algún derecho que consagrase la libertad de alguien de ir pegando tiros por la calle y matando – en este caso de cáncer o de enfermedades respiratorias  – a los que tienen la mala suerte de pasar por ella.

No, el problema no está en la tecnología ni en los tecnólogos, que están haciendo su trabajo en general notablemente bien: está en la escasez, cuando no ausencia, de personas de otras ramas, tales como filósofos, educadores, historiadores o, en general, profesionales de las Humanidades capaces de añadir a esos procesos de adopción elementos no tecnológicos, sino de otros tipos, planteados en muchas ocasiones desde perspectivas humanísticas. Solo analizando la historia podemos entender que la revolución que trae consigo el machine learning no va a terminar con nuestros trabajos y convertirnos en inútiles, sino a potenciarnos y a proporcionarnos nuevos tipos de trabajo mucho más interesantes y vocacionales. Únicamente analizando el asunto desde un prisma filosófico o ético podemos entender y divulgar que hay determinados tipos de trabajo que no debería hacer un ser humano, y que el hecho de que haya personas viviendo de ello ahora mismo no es el problema, el problema está en el coste que eso representa para la sociedad, y por tanto, el qué ofrecer a esas personas para que dejen de hacer lo que hacen. Todo ello con el protagonismo total de un ámbito, la educación (una opinión lógica en mi caso de la que he hablado en otras ocasiones, dado que es bien sabido que para quien tiene un martillo, todo problemas es un clavo ;-) que se ha convertido en el verdadero problema: hemos renunciado a educar en tecnología, a introducirla en el proceso educativo, y por tanto, no somos más que idiotas sin idea de lo que hacen tratando de guiarnos mediante ensayo y error en un entorno desconocido, sin referencias válidas, y con el riesgo de ser influenciados y manipulados por actores perversos con fines de todo tipo.

En ese sentido, en la educación, estamos de hecho yendo hacia atrás: la decisión de Francia de prohibir los smartphones en los colegios marca un mínimo en el nivel de estupidez al que el ser humano es capaz de llegar, trata de convertir los colegios en un reducto al margen de la tecnología, impide que se desarrollen habilidades digitales y, sobre todo, reduce la capacidad de exponer a los estudiantes a más fuentes de información, vital para el desarrollo del pensamiento crítico y fundamental, por ejemplo, para evitar que sean afectados por las llamadas fake news. Pero más preocupante aún: la decisión de Macron en Francia sirve ahora para justificar a políticos idiotas de todo el mundo, como es el caso de España, que quieren imitar a Francia sin hacer ningún intento de planteamiento adicional. No, los smartphones no “distraen” a los niños, o lo hacen únicamente si renunciamos a integrarlos completamente en el proceso educativo, a utilizarlos como herramienta para acceder a información en lugar de libros de texto considerados como “la única fuente del conocimiento”, y a fomentar el desarrollo del pensamiento crítico cambiando drásticamente la metodología de las clases: eso, y no prohibir los smartphones, es lo que tendríamos que estar planteándonos hacer, porque la función de la educación, en gran medida, es la de enseñar a los niños a desenvolverse en el mundo, y el mundo actual está lleno de smartphones y de tecnologías relacionadas que resultan ya fundamentales para desenvolverse en él. En el mundo actual, el idiota no es el que no se sabe la lista de los ríos, las capitales de provincia o los reyes de su país, sino el que no es capaz de utilizar una herramienta tan potente como un smartphone para averiguarlo rápidamente y con las adecuadas garantías. Querer convertir los colegios en la aldea de Asterix, en irreductibles fortalezas al margen de la tecnología, es una de las mayores y más soberanas estupideces que hemos llegado a perpetrar como sociedad.

Scott incidió en una cuestión que me pareció también importante: el hecho de que en el desarrollo de tecnología, hablemos de algoritmos o de diseño, existen innumerables decisiones que conllevan fuertes implicaciones éticas o filosóficas, que se manifiestan en el hecho de que un smartphone no impida escribir o enviar mensajes cuando está en un vehículo y permita, por tanto, que el conductor envíe mensajes mientras conduce, o que no se introduzcan ciertas garantías que eviten que un timeline de Facebook sea tomado por actores perversos que tratan de manipular a su propietario. Por supuesto, en ese tipo de procesos que evalúan las consecuencias de las tecnologías sería interesantísimo contar con profesionales capaces de evaluarlas desde un punto de vista más humanista. Pero no olvidemos que la función de las empresas de tecnología es crear tecnología, y que no podemos jugar a intentar prevenirlo todo, porque sencillamente, no tendremos ni idea de lo que intentamos prevenir, y el exceso de precauciones terminará por impedir o dificultar enormemente el desarrollo tecnológico.

La discusión paró ahí por falta de tiempo, pero me pareció verdaderamente interesante, digna de una entrada en la que intentase dejar algunas de las ideas, algunos enlaces y algunos de los temas de discusión – o cuando menos, mi impresión personal sobre ellos – plasmadas en algún sitio.

 

Por qué ya no necesitas cuatro años de carrera para triunfar en Google o Apple - El MundoJose María Robles, de El Mundo, me llamó para hablar sobre el cambio de tendencia en algunas grandes compañías que han comenzado a aplicar criterios y variables para la incorporación de talento en los que no se considera un requisito fundamental la obtención de un título académico determinado, y hoy lo publica en el suplemento Papel bajo el título “Por qué ya no necesitas cuatro años de carrera para triunfar en Google o Apple” (pdf).

El tema de los indicadores de desempeño en educación y su validez como variables capaces de predecir el éxito en una carrera profesional es algo que llevo bastante tiempo estudiando. Las compañías tecnológicas son hoy las consideradas más atractivas y más demandadas por los estudiantes de instituciones de educación superior: los alumnos que hace años mostraban preferencia por la banca de inversión o la consultoría hoy persigue oportunidades en compañías del ámbito tecnológico y las ven como los lugares más deseables en los que desarrollar una carrera profesional. Que esas compañías consideren hoy que un título no es imprescindible para trabajar en ellas y se planteen la búsqueda de talento en instituciones o estudios de otros niveles refleja, indudablemente, un cuestionamiento de la validez de esos indicadores.

En 2013, el entonces VP of People Operations de Google, Laszlo Bock, comentó en una entrevista en The New York Times que tras muchos años considerando las notas altas un requisito importante en los procesos de selección, la compañía había comprobado que no existía correlación entre el éxito en la vida profesional y elementos como las notas o los resultados en entrevistas o en tests. Las explicaciones de Bock apuntaban a que las instituciones académicas generaban entornos artificiales que entrenaban a los estudiantes para dar respuestas predeterminadas a los problemas, cuando lo que los entornos profesionales precisaban eran precisamente personas capaces de resolver problemas para los que no había una respuesta obvia. Una respuesta así resultaba interesante para instituciones que, como las escuelas de negocios, llevaban décadas trabajando precisamente de esa manera, tratando de adiestrar el sentido común poniéndolo a prueba en cientos de casos para tratar de desarrollar habilidades de resolución de problemas “sin recetas”, pero planteaba un problema que las propias escuelas ya intuían: la validez del sistema de indicadores, de la forma de calificar. Quien conoce el ámbito de las escuelas de negocios no espera encontrar en ellas apuntes o codos hincados memorizando conceptos, sino trabajo práctico a raudales, proyectos y otros elementos que tratan de buscar paralelismos razonables con los entornos profesionales actuales. Sin duda, las reformas que la educación tradicional tiene aún pendientes para educar a la llamada “generación Google” y que se centran en el desarrollo del pensamiento crítico en lugar de simplemente dar acceso a un conocimiento que ya está disponible a pocos clics de distancia ya han sido razonablemente asimiladas por las escuelas de negocios, o al menos por las más punteras.

Aún así, las calificaciones llevan años siendo objeto de reflexión en muchos entornos académicos. Un número creciente de instituciones emplean sistemas de acceso propios además de los tradicionales GMAT, GRE u otros tests estandarizados en un intento de buscar correlaciones entre métricas y desempeño. Los efectos de los distintos sistemas de calificación – tradicional, ajustado a curva o en función de estándares de aprendizaje – han sido cuestionados en numerosas ocasiones, y existe incluso una tendencia que trata de evitarlos y de buscar otros sistemas alternativos a las notas tradicionales. En este sentido, creo firmemente que la tecnología puede convertirse en un aliado excepcional, que permitiría evaluar más indicadores sin imponer al profesor una carga imposible de gestionar, y tratar de dar trazabilidad y mejorar, además, la posible arbitrariedad de las notas tal y como las entendemos hoy.

En cualquier caso, la idea de que “no necesitas una carrera para triunfar en según que empresa” sigue siendo poco realista: que esas compañías puedan aceptar candidatos sin exigirles un diploma o incluso abran sus prácticas de búsqueda de talento buscarlos en lugares menos convencionales es, y será seguramente por mucho tiempo, más una excepción bien planteada para ciertos casos que una regla. Por supuesto, algo así no quiere decir que ya no haga falta estudiar una carrera o un master, sino que hay muchas formas de aprender. Pero en realidad, estudios recientes demuestran que las compañías tecnológicas incorporan a muchos más empleados con titulaciones como master o Ph.D. que lo que lo hacen en otras industrias, y que por cada historia de éxito en la incorporación a una de estas compañías de una persona sin titulación, existen miles de personas que no acceden siquiera a la fase de pre-selección de esos procesos, en parte por carecer de esas titulaciones. Indudablemente, aunque el mercado de trabajo pase a reinterpretar algunos factores de otra manera, para acceder ese tipo de compañías, la titulación sigue siendo un elemento fundamental. Pero eso no quita que, como instituciones educativas, no debamos interpretar este tipo de tendencias como lo que son: una prueba de que los indicadores que utilizamos con leves reformas desde hace tiempo inmemorial, necesitan un urgente proceso de reflexión y revisión.

 

IMAGE: Wokandapix - Pixabay (CC0)Desde hace unos meses, India tiene un gravísimo problema con la difusión de noticias falsas a través, sobre todo, de grupos de WhatsApp, que han llevado ya a la muerte de varias decenas de personas debido a linchamientos provocados por rumores transmitidos a través de la app relacionados generalmente con el secuestro de niños, y que han llegado incluso a provocar el cierre total de la conectividad a internet durante 48 horas en el estado de Tripura.

WhatsApp tiene más de doscientos millones de usuarios en India, su mercado más importante en todo el mundo, y el pasado 3 de julio fue requerida por el gobierno para tomar acción inmediata y poner coto a la difusión de este tipo de rumores. La respuesta de la compañía fue clara: debido al cifrado de los mensajes en su plataforma, el control de los contenidos que circulan a través de su red es inviable, y es necesaria la acción colectiva de gobierno y ciudadanos para poder plantear soluciones que no serán tecnológicas, sino que deberán basarse necesariamente en más información y educación.

La respuesta de algunas escuelas de Kerala, un estado en el sur de la India, ha sido comenzar a introducir en sus clases contenidos relacionados con las fake news y su transmisión, con la idea de educar a los niños para evitar que se crean y compartan todo aquello que les llega a través de las redes sociales. Los contenidos inciden en la definición de fake news y las precauciones que deben tomarse para aprender a reconocerlas y no colaborar en su difusión, en un país en el que, para un porcentaje muy elevado de la población con un nivel cultural muy bajo, el smartphone se ha convertido en una de las fuentes de noticias que consideran más fiable, y en donde los grupos de WhatsApp destacan porque les permiten acceder a noticias enviadas por conocidos que, supuestamente, las comparten llevados por buenas intenciones.

El problema con la aproximación tomada por las escuelas de Kerala es que han diseñado una introducción de este contenido en el curriculum educativo con un esquema vertical: unos contenidos específicos, que se introducen en una asignatura, y se explican a los alumnos en ese contexto. La aproximación vertical es adecuada porque permite tomar una acción rápida, puede llevarse a cabo con cierta facilidad simplemente actuando sobre el temario de una asignatura y sobre sus profesores, y en ese sentido, puede ser interesante como intento inmediato de poner un problema bajo cierto nivel de control, como forma de paliar los efectos de un tema coyuntural, incluso intentando convertir a los niños en embajadores de la idea de cara a sus familias. Pero en realidad, para hacerlo de manera sostenible, el problema debería ser planteado de manera no vertical, sino horizontal: fomentar el desarrollo del pensamiento crítico en todas las asignaturas a nivel metodológico, como forma de aproximarse a los contenidos de cada una de ellas. Únicamente cuando enseñemos a los niños a hacerse cargo de su responsabilidad en la gestión de los contenidos, y cuando lo hagamos de manera horizontal, podremos pensar en tener una generación de jóvenes que sean capaces de entender los mecanismos de las redes sociales, los esquemas de difusión, y los posibles intereses en la difusión de rumores y la manipulación.

No lo olvidemos: la tecnología nos ha permitido crear un medio de comunicación sencillo y al alcance de todos, lo ha dotado de mecanismos que lo convierten en irresistiblemente atractivo, pero por alguna absurda razón relacionada con los mecanismos de adopción de la tecnología, hemos renunciado absurdamente a introducir en el proceso educativo la educación en su uso, limitándola a unas cuantas advertencias absurdas sobre su peligrosidad que los niños tienden naturalmente a desoír. No, la forma de preparar a los niños para que usen internet de forma segura no es llevar invitados a sus clases que les advierten sobre los “terribles peligros” de la red, sino utilizando la red en todas las asignaturas y convirtiendo las prácticas de seguridad en algo cotidiano. La mejor forma de educar el pensamiento crítico es con más tecnología, permitiendo que sean los propios estudiantes los que tengan la responsabilidad de encontrar la información adecuada para su educación en todas y cada una de las asignaturas, y monitorizando el proceso adecuadamente para enseñarles qué información es fiable y cuál no lo es en cada caso. Menos libros de texto, menos fuentes únicas de información habitualmente utilizadas para el adoctrinamiento, y más buscadores, más contraste de fuentes, más verificación y más procedimientos para encontrar la información que se necesita en cada momento o la que mejor les ayuda a entender un concepto, una idea o un procedimiento.

Las acciones verticales sobre el curriculum educativo son meramente coyunturales: pueden servir para llamar la atención sobre un tema o iniciar los esquemas necesarios para su eventual desarrollo. Pero la verdadera estrategia debe ser horizontal, metodológica y aplicada a todas las asignaturas del curriculum, a todos los niveles. Sin ese cambio de mentalidad en la educación, seguiremos teniendo una sociedad fácilmente manipulable a golpe de fake news.

 

CCTV classroom¿Cómo van a ser las escuelas e instituciones educativas del futuro? Si hacemos caso a las tendencias que están surgiendo tanto en los Estados Unidos como en China, es posible que sean entornos bastante alejados de lo que muchos imaginan. De hecho, todo indica que podrían plantearse como escenarios de permanente monitorización, en los que los estudiantes estarán sometidos constantemente a vigilancia por parte de cámaras, algoritmos y todo tipo de tecnologías diseñadas para obtener información de manera constante a partir de todos los aspectos de su comportamiento.

Si hace no demasiado tiempo hablábamos del uso de la tecnología de reconocimiento facial en escuelas norteamericanas para prevenir episodios de violencia, y de la opinión contraria de las asociaciones de derechos civiles, que las consideraban inaceptables en un entorno escolar, ahora encontramos ya desarrollos de inteligencia artificial que monitorizan todo lo que los estudiantes teclean en sus ordenadores y tabletas con el fin de descubrir pautas de posibles episodios de violencia, bullying, suicidios u otros problemas.

En los Estados Unidos, este tipo de escenarios deriva de la aplicación de la Children’s Internet Protection Act (CIPA), que obliga a toda escuela que reciba fondos federales a mantener una política de seguridad para el uso de internet por parte de los alumnos, y que incluye la instalación de herramientas de monitorización en todos los equipos, tales como tabletas, ordenadores o Chromebooks, que las instituciones faciliten a sus estudiantes. Mientras algunas escuelas se limitan a la instalación de filtros para contenidos considerados inadecuados, otras prefieren recurrir a paquetes especializados como Gaggle, GoGuardian o Securly para tratar de descubrir escenarios potencialmente conflictivos a partir de toda la información suministrada por el usuario, tanto los sitios que visita y el uso general que hace del equipo, como incluso los contenidos que teclea. Otros compañías, como Hoonuit o Microsoft, han desarrollado algoritmos predictivos para analizar la probabilidad individual de abandono de los estudios, llevados por políticas que amparan la recolección prácticamente ilimitada de datos de los estudiantes desde los niveles educativos más elementales. 

Pero este tipo de tecnologías no están solas en el desarrollo de espacios sensorizados o monitorizados en el ámbito educativo: de cara al curso que viene, la Universidad de Saint Louis está llenando todos sus espacios comunes con dispositivos Echo Dot de Amazon, que permitirán a los estudiantes hacerles preguntas en cualquier momento, y contarán con repositorios para cuestiones relacionadas, por ejemplo, con instalaciones, horarios y otras preguntas habituales en el entorno universitario. Los dispositivos se ubicarán en zonas comunes, como aulas de trabajo, pero también en las habitaciones de los estudiantes que utilicen las residencias y apartamentos ofrecidos por la universidad, en lo que supone uno de los despliegues más grandes que se han diseñado para este tipo de dispositivos. Y, para muchos, un escenario de posible amenaza a la privacidad.

Microsoft ha adquirido y convertido en gratuita una herramienta, Flipgrid, para la creación de escenarios de discusión utilizando vídeo, siguiendo una tendencia que lleva a cada vez más institutos y universidades a posibilitar el uso de plataformas online como vehículo educativo que permitan un análisis más detallado y riguroso de todo el proceso participativo. Los comentarios que antes se quedaban en una discusión en clase, ahora serán almacenados y procesados individualmente, lo cual no tendría que ser necesariamente malo, pero podría también contribuir al desarrollo de ese entorno de monitorización y control permanente en lo que todo lo que el estudiante hace, dice o piensa pasa a formar parte de un archivo permanente que lo caracteriza.

En China, algunos institutos están empezando a utilizar la monitorización facial de los alumnos en clase ya no para obtener su identidad, sino para detectar sus actitudes en cada momento. En una escuela en Hangzhou, por ejemplo, tres cámaras en la clase escanean las caras de los estudiantes para tratar de detectar su estado de ánimo, clasificarlo entre sorpresa, tristeza, antipatía, enojo, felicidad, temor o neutro, registrarlo y promediarlo durante cada clase. Además, el crecimiento en el uso de herramientas de machine learning para la corrección de exámenes permite obtener de manera automática datos sobre el desempeño, e incluso, detectar cuándo los estudiantes copian. En algún momento, podríamos incluso pensar en la adopción por parte de las instituciones educativas de herramientas de monitorización de la actividad cerebral, ya en uso en el ejército y en algunas compañías chinas.

En Francia, más conocida en este momento por la prohibición de llevar smartphones al colegio que entrará en vigor en este curso, hay al menos un instituto privado católico en París que ha decidido obligar a sus estudiantes a llevar un dispositivo Bluetooth para controlar su presencia y evitar que falten a clase, so pena de ser multados con diez euros cada vez que lo olviden en casa o lo pierdan.

¿Qué tipo de escenarios podemos esperar para la educación en el futuro? ¿Tecnologías pensadas para maximizar el aprendizaje y crear entornos agradables, o un adelanto de distopía que prepare a los jóvenes para una sociedad de monitorización constante y permanente en la que se encontrarán, gracias a su educación, como peces en el agua? Podemos justificarlo como forma de mejorar el rendimiento académico, como intentos de mejorar la seguridad y de intentar evitar determinados peligros, como una manera de preparar a los alumnos para los entornos profesionales en los que van a desempeñar su futuro profesional, o de muchas otras formas, pero el caso es que este tipo de noticias están proliferando, y están cambiando de manera muy rápida la imagen de la educación en países tan diferentes como los Estados Unidos, China o Francia. Soy un convencido del poder de la analítica de cara a la mejora de los procesos educativos, pero creo que sería importante tener una discusión informada acerca de su uso e implicaciones de cara a cuestiones como la privacidad, la seguridad o la disciplina, si queremos evitar que muchas decisiones que se disponen a condicionar el futuro de la sociedad sean tomadas de facto, sin un proceso de reflexión adecuado.