IMAGE: Chudomir Tsankov - 123RFUn profesor de Inteligencia Artificial en Georgia Tech, Ashok Goel, desarrolla un chatbot basado en el Watson de IBM para resolver las preguntas que sus alumnos le plantean en el foro online de su asignatura, alrededor de diez mil preguntas cada semestre que habitualmente eran respondidas por él mismo y su grupo de trabajo, y decide no informar a sus alumnos de que se trata de una inteligencia artificial, diciéndoles en su lugar que se trata de una teaching assistant llamada Jill Watson. El resultado es que ninguno de sus estudiantes se da cuenta del esquema, el semestre se desarrolla con plena normalidad, y cuando tras el examen final decide revelar la identidad de su asistente, los alumnos se muestran absolutamente sorprendidos, se sienten participantes en un evento histórico, y algunos incluso afirman que tenían pensado nominar a Jill Watson al premio a la mejor teaching assistant!

Llevo veintiséis años dando clase, y además, disfrutando de ello. Me he encontrado muchísimas veces en la situación de pretender contestar a todas las preguntas que mis alumnos me planteaban en foros online, hasta el punto de despertarme alguna vez con la cabeza prácticamente apoyada en el teclado. Además de mis clases en formato online, he intentado utilizar ese formato en mis clases presenciales como forma de proporcionar un entorno más rico a la participación que se prolongue más allá del aula, y en los últimos tiempos, lo había dejado por imposible: no me daba la vida para ello. Entiendo perfectamente la problemática: las preguntas de los alumnos a un nivel educacional elevado no son sencillas, están muchas veces formuladas de manera confusa o compleja, pero tienen un componente de repetición relativamente elevado, al tiempo que ofrecen numerosas oportunidades no solo para la simple resolución de la duda, sino para la “construcción” de hilos con un componente formativo potencialmente elevado. Cuando trabajas en lo que solemos llamar participant-centered learning, entiendes perfectamente que la gracia no está en aparecer ante un grupo de estudiantes – bien seleccionados y brillantes – como “el que más sabe”, sino en ser capaz de ofrecerles las mejores oportunidades para el aprendizaje en función de situaciones que se crean en cada clase, y que prácticamente siempre son distintas de la clase anterior o de la siguiente.

Cuando ves que una máquina, un chatbot, ha sido capaz de desempeñar con éxito una parte importante de tu trabajo, la primera tentación es tratar de quitarle credibilidad. Quedaros con eso, por favor, porque a muchos de vosotros vais a tener en breve la misma sensación que tengo yo hoy: nunca funciona. La situación creada por Ashok Goel no tiene discusión posible: hablamos de estudiantes de una muy buena universidad, en un curso de nivel elevado, y que efectivamente, no fueron capaces ni siquiera de imaginarse que su teaching assistant fuese un chatbot. Pero incluso si la tuviese, el pensamiento positivo es fundamental, y lo importante es entender que si no hubiese ocurrido ya, estaría a punto de ocurrir. Reflejos como quitarle importancia, minimizarlo, ridiculizarlo o tomarlo como excepcional e irrepetible no funcionan.

Lo siguiente es plantearse a dónde vamos a partir de aquí. De entrada, si puedo quitarme del medio una tarea tan importante como la resolución de dudas de mis alumnos tras haber conseguido entrenar adecuadamente a Watson – que es, entre otras muchas cosas, no olvidemos, un campeón mundial de Jeopardy! – mi forma de dar clase podría modificarse dramáticamente. Si una máquina puede conseguir que a igual esfuerzo, obtenga una productividad muy superior y me libere de determinadas tareas, puedo plantearme llevar mis clases bastante más allá. ¿Debo preocuparme por la posibilidad de que, tras sustituir a mi teaching assistant (en IE nunca hemos tenido tradición de teaching assistants, en cualquier caso, y salvo excepciones, apalancamos la totalidad del esfuerzo docente en el profesor tanto en el entorno presencial como en el online), la inteligencia artificial se plantee sustituirme a mí? Francamente, ojalá sea ese mi problema: ya me buscaré cosas que hacer que se apoyen precisamente en eso. Tengo muy claro que si esto termina dejándome sin trabajo, será porque habré interpretado esa transición rematadamente mal.

Contrariamente a lo que ocurre cuando se plantea la sustitución de personas por inteligencia artificial, a mí la sola perspectiva es algo que me muero de ganas de explorar, y dudo que sea el único en mi industria. Para cualquier profesor, la posibilidad de contar con una inteligencia relacional superior que sea capaz de responder a dudas sobre su campo debería representar no un miedo, sino una oportunidad, una forma de elevar el nivel para poder construir más cosas sobre una base más elevada. ¿Cómo van a evolucionar las universidades ante un cambio semejante? Una de mis quejas más habituales en mi industria, el hecho de que tras veintiséis años de experiencia en ella sigamos dando nuestras clases aproximadamente igual que cuando empecé, pasa a tomar, ante la disponibilidad de machine learning e inteligencias artificiales avanzadas, una escala y un significado completamente diferentes.

La última consideración corresponde precisamente a eso: ¿qué podemos hacer cuando contemos con bases de conocimiento interactivas capaces de responder a preguntas expresadas en lenguaje natural? ¿Pasará el papel de un profesor a ser el de convertirse en un entrenador de inteligencias artificiales para que sean capaces de escalar sus capacidades? ¿Interactuarán rutinariamente los alumnos con chatbots progresivamente sofisticados en lugar de hacerlo con profesores de carne y hueso? ¿Qué ocurre cuando podemos plantearnos tener agentes inteligentes expertos en temas avanzados capaces de responder a todo tipo de dudas? Si ese es el futuro, yo me muero de ganas de verlo y de vivirlo…

 

Lee Sedol vs AlphaGo - Game 4La reciente victoria de AlphaGo, el modelo de machine learning creado por Google para jugar al Go, frente a Lee Sedol, el mejor jugador del mundo, por 4 partidas a 1 (en la imagen, el tablero al final de la cuarta partida, la única que ganó el jugdor humano), permite hacer algunas reflexiones interesantes sobre las perspectivas de la evolución y del desarrollo de este tipo de disciplinas que implican el progresivo desarrollo de las habilidades de las máquinas en tareas antes reservadas a los seres humanos.

La primera cuestión es bastante evidente: vencer a los mejores humanos haciendo cualquier cosa, como ya vimos anteriormente en los casos del ajedrez, del Jeopardy o de los juegos clásicos de Atari, es indudablemente divertido, proporciona una visibilidad a la disciplina de la que normalmente no goza, y contribuye decididamente a ponerla en la agenda del futuro para muchísimas cosas. Tras la noticia de la victoria de AlphaGo, todos tenemos bastante más claro que en el futuro tendremos robots que nos ganan a cualquier deporte o tarea imaginable, que fabrican, conducen, reparten o juegan… pero eso no lo es todo. En realidad, empezamos a tener claro que también tendremos inteligencias autónomas que tomarán decisiones empresariales, que fijarán los tipos de interés del Banco Central Europeo, que determinarán la presión impositiva o el importe de las pensiones, o que se convertirán en nuestra pareja ideal para la práctica del sexo (y no, no todo a la vez, por mucho que se os ocurran formas creativas de combinarlo :-)

Pero por otro lado, hay otra cuestión evidente: para ese escenario, los desarrollos no tendrán que dedicarse a vencer a los humanos, sino a trabajar con ellos. La idea del reemplazo resulta demasiado agresiva y difícilmente aceptable para una sociedad que va a tener que redefinirse de manera drástica y a una velocidad sin precedentes: que es algo que va a ocurrir ya es algo que cada vez más personas que analizan más allá del reduccionismo de cuatro clichés empiezan a aceptar, pero el cómo ocurre y lo que viene después es lo que todavía no está nada claro – y tardará en estarlo. Modelos sociales, distribución de la riqueza, papel de las personas, desarrollo de las sociedades humanas… muchos temas, y mucho que hacer. Y una verdad indudable: el progreso tecnológico ni se va a detener, ni va a esperar ni por nada ni por nadie.

Segunda cuestión: la victoria de AlphaGo conlleva un importante avance e impulso para el machine learning, justo al revés de lo que ocurrió con el parón que la disciplina sufrió en los años ’70, el llamado AI Winter que siguió a su primera oleada de popularidad. Ahora no solo hablamos de un premio de un millón de dólares dedicados a fomentar la enseñanza de las ciencias (STEM) y la tecnología, sino además, de una fortísima oleada de popularidad, de personas orientando su carrera profesional al tema, y de empresas pagando por ello. Si algo puede acelerar el desarrollo de la inteligencia artificial y el machine learning son este tipo de cosas, aunque sean simplemente la guinda de un pastel que cuesta muchísimo trabajo duro y muchísimo esfuerzo conseguir. Pero esa aceleración del ciclo es algo que, sin duda, vamos a presenciar más pronto que tarde, y definitivamente mucho antes de lo que pensaban algunos de los más optimistas.

Tercero, la serie de partidas jugadas por AlphaGo tanto contra Fan Hui como contra Lee Sedol dejan un importantísimo poso de experiencia. Todas y cada una de las jugadas están siendo analizadas hasta el límite, y algunas de las consecuencias que se desprenden son enormemente interesantes. La primera es que la máquina es infinitamente mejor aprovechando la experiencia. Del mismo modo que cada vehículo autónomo que circula un metro por cualquier carretera contribuye automáticamente con su experiencia al aprendizaje de todos los vehículos autónomos del mundo, la realimentación del machine learning de AlphaGo con las últimas partidas proporciona un aprendizaje y un modelo (un “jugador”) cada vez más potente. Algunos de los movimientos jugados por AlphaGo han sido no simplemente definidos como intrínsecamente “bellos“, sino que, además, definen jugadas que tendrían únicamente una entre diez mil posibilidades de ser llevados a cabo por un jugador humano, movimientos que ningún humano podría comprender – y mucho menos anticipar. La combinación de deep learning con reinforcement learning, poner a la máquina a competir contra sí misma y a derivar nuevas jugadas a partir de movimientos originales que posteriormente son realimentados en el sistema, demuestra funcionar de una manera espléndidamente brillante.

Tangencialmente, ya en el terreno de las hipótesis y las sugerencias, hay otras no menos interesantes conclusiones: dado que la victoria de Lee Sedol se produjo en la cuarta partida, cuando ya no existía posibilidad de que llegase a ganar la serie de cinco, ¿podríamos llegar a hablar de una inteligencia artificial con capacidad de ser emocionalmente inteligente? Es decir, ¿podríamos esperar que una máquina fuese suficientemente inteligente como para, pudiendo ganar, dejar conscientemente de hacerlo porque prefiere permitir que el humano marque, por así decirlo, “el gol del honor” y salve su orgullo? ¿Qué posibles implicaciones podrían llegar a tener este tipo de mecanismos ya no para el desarrollo de la inteligencia artificial, sino para la futura convivencia entre hombres y máquinas? ¿Puede una máquina llegar a ser condescendiente? ¿Sería interesante que lo fuese?

Hace algún tiempo, escribí un artículo para Forbes recomendando a directivos que bajo ningún concepto twitteasen estando bajo la influencia del alcohol: ahora resulta que un algoritmo es perfectamente capaz de determinar precisamente eso, cuándo un tweet ha sido escrito por un usuario que estaba bebido. Pensemos en las posibilidades, por ejemplo, a la hora de evitar muertes relacionadas con el consumo de alcohol y la conducción: ¿cómo deberán las máquinas gestionar ese tipo de cuestiones? ¿Puede una máquina llegar a relacionarse con un humano de manera… humana? Podemos encontrarnos muchos casos de juegos o tareas que una máquina puede hacer en las que el objetivo no es necesariamente “ganar” o “hacerlo mejor que nadie”, sino otro. Claramente, ganar no lo es todo. Y si la mentalidad no es necesariamente ganar, sino mejorar los niveles de cooperación entre humanos y máquinas, podríamos llegar a utilizar esa combinación para intentar resolver algunas de las cuestiones y problemas más difíciles del mundo.

Mientras tanto, sigamos jugando a algo que hace ya mucho tiempo que dejó de ser un juego. ¿Alguien se anima a una partida de poker?

 

Slippery slopeUn par de noticias recientes y las reacciones que han generado me llevan a considerar un tipo de falacia que me encuentro habitualmente en mis clases y discusiones relacionadas con el desarrollo tecnológico: la de la pendiente resbaladiza. En ella, un suceso es presentado como detonante seguro de una cadena de eventos que sin duda de ningún tipo darán la razón a quien lo propone, aunque no exista ninguna evidencia relevante de esa supuesta cadena de eventos.

El primer caso es el reciente incidente sufrido por un vehículo autónomo de Google: un Lexus autónomo que, para evitar unos sacos de arena situados en torno a una alcantarilla, decide invadir el carril contrario circulando a unos tres kilómetros por hora, para encontrarse con que un autobús, circulando a unos 25 km/h en sentido contrario, decide no cederle el paso. Nada preocupante: la inteligencia autónoma del vehículo asumió que, dado lo excepcional de la situación, el autobús le dejaría pasar, y el conductor del autobús decidió que no era el momento de ser cortés. La situación se salda con unos leves desperfectos, una asunción de responsabilidad, y una corrección introducida en el algoritmo de conducción automática para prevenir que los conductores de vehículos grandes pueden tener menos tendencia a ceder el paso por cortesía en situaciones excepcionales.

Con respecto a la alternativa de que el accidente lo hubiese producido un conductor humano, situación que vemos centenares de veces todos los días con total normalidad, la gran diferencia es que el error del algoritmo genera automáticamente un aprendizaje que lo realimenta para evitar futuros accidentes similares. El incidente no refleja nada: decididamente, no que la conducción autónoma sea más insegura que la humana (los números cantan), no que los humanos sean más hábiles en determinadas situaciones, y mucho menos que el futuro de la conducción autónoma se complique. Absolutamente nada de eso. Que ningún vehículo de conducción autónoma tuviese jamás un accidente no es algo que entre dentro de la lógica, y ante la eventualidad de uno, se aplica la inteligencia adecuada para tratar de evitar otro similar. Eso es todo. Cualquiera que pretenda implicar que “ya decía yo que eso de que el coche condujese solo no podía ser buena cosa” o “si hubiese ido conduciendo yo, el incidente no habría ocurrido” está siendo simplemente falaz, utilizando un argumento lógicamente erróneo y sin sentido, por “intuitivo” que le pueda parecer. Que las tareas de conducción terminarán siendo llevadas a cabo por robots de manera completamente mayoritaria es algo que ya resulta absurdo dudar, por muhco que haya habido un incidente.

Segundo caso: Daimler comenta que en la fabricación de su Mercedes Clase S, caracterizado por un elevadísimo número de extras que convierten cada vehículo en una combinación de muchísimas posibilidades, están sustituyendo algunos robots de la cadena de montaje de su factoría de Sindenfingen por trabajadores humanos, porque la tarea de reprogramar los robots para cada vehículo se prueba menos eficiente que la de poner a un humano a hacerlo. Automáticamente, muchos ven en esta noticia algún tipo de aceite con el que engrasar una lógica defectuosa, y pasan a afirmar que los robots nunca sustituirán al hombre, que las empresas se dan cuenta de que es mejor el trabajo humano, y que poco menos que la tendencia era errónea y ya se ha revertido. Por supuesto, nada de esto es real. La decisión de Daimler es puramente temporal, hasta que los algoritmos de programación de los robots se simplifiquen hasta el punto de convertir su reprogramación en una tarea trivial y sencilla, o incluso hasta el punto de que se reprogramen a sí mismos al ver la lista de extras del modelo que van a montar. Bajo ningún concepto esto quiere decir que el futuro sean trabajadores humanos en cadenas de montaje: si alguien lo cree, que vaya olvidándose, y mucho menos, que Daimler haya dejado de invertir en robotización: si lo hiciera, quedaría rápidamente obsoleta y sus costes no serían competitivos. En su lugar, Daimler está investigando activamente en como compatibilizar hombres con robots en un mismo entorno de trabajo, convirtiendo a los robots en inteligencias sensibles capaces de evitar accidentes. Quien quiera ver en la coyuntural decisión de Daimler una tendencia, una progresión que nos lleva a desechar a los robots, lo va a tener complicado para justificar su argumentación. Que los humanos quedarán mayoritariamente apartados de las cadenas de montaje es algo que sigue una argumentación lógica infinitamente más consistente.

Razonamientos tan absurdos como estos los vemos todos los días en todas las compañías. La mente humana siente la dificultad de tratar con argumentos complejos, y opta por el camino fácil: el del tópico o la generalización gratuita. Una frase rápida, discusión cerrada, y preocupación eliminada. El problema, claro está, es que no es así: la frase rápida no es más que un placebo mental, y ni la discusión se cierra, ni la preocupación debería eliminarse, porque cuando abra los ojos, como aquel dinosaurio del microrrelato, aún seguirá ahí. Y si la decisión de recurrir a placebos mentales resulta ya de por sí absurda en personas maduras, la de hacerlo en entornos corporativos es directamente irresponsable.

 

GoPara un occidental, entender la importancia que el hito que ha tenido lugar hoy en el mundo del machine learning puede no ser demasiado obvio o sencillo. El juego del Go, aunque tiene más de cuarenta millones de practicantes en el mundo, goza de su mayor popularidad en Oriente, particularmente en países como China, en el que se considera una de las cuatro artes de la erudición, o Japón, donde antiguamente las partidas profesionales duraban varios días (hoy en día el máximo son 16 horas repartidas durante dos días). 

El Go es un juego de estrategia e intuición que se juega en una cuadrícula de líneas negras, típicamente de 19 × 19, en cuyas intersecciones se colocan las fichas, llamadas “piedras”. Aprender las reglas del juego es relativamente sencillo, pero jugar a un buen nivel de competición requiere miles de horas de estudio, fundamentalmente porque la cantidad de combinaciones que pueden generarse es mayor que el número calculado de átomos en el universo. 

Para los estudiosos de la inteligencia artificial y el machine learning, la complejidad del Go ha constituido un reto durante varias décadas. Con el avance de las diferentes técnicas, las máquinas han ido siendo capaces de vencer a los humanos primero al tres en raya, después a las damas, y finalmente, en la histórica partida de Deep Blue contra Gary Kasparov, al ajedrez. Después llegó Watson y logró ganar a los mejores jugadores de Jeopardy, o Google consiguiendo algoritmos capaces de aprender a jugar docenas de juegos de consolas Atari, pero el Go se mantenía inalcanzable: la mejor inteligencia artificial llegaba tan solo a un nivel de jugador humano principiante.

El problema estaba, fundamentalmente, en la metodología. Los métodos basados en árboles de posibilidades chocan con la enorme cantidad de combinaciones existentes en Go, y entrenar la inteligencia de una máquina mediante el análisis de treinta millones de jugadas de Go de los mejores jugadores del mundo, el principio del llamado deep learning, lograba, como mucho, una máquina capaz de imitar a esos jugadores, capaz de predecir sus jugadas en un 57% de las ocasiones, pero no capaz de mejorar su rendimiento en una partida. Para ser capaz de vencerlos, se planteó otra metodología: el uso del reinforcement learning, consistente en entrenar a la máquina jugando contra sí misma, lo que le permite generar toda una nueva colección de movimientos que después son realimentados en el entrenamiento. Si no lo has leído bien, vuélvelo a leer: el sistema aprende no a partir de datos generados por humanos, sino a partir de datos y de hipótesis generadas por sí mismo, creando jugadas que no han existido previamente y tratando de resolverlas jugando contra versiones levemente diferentes de sí mismo. Algo que, lógicamente, requiere de una enorme potencia de computación, y que ha implicado un uso intensivo de la Google Cloud Platform.

El momento histórico ha llegado cuando ese algoritmo, creado por Google y llamado AlphaGo, ha sido capaz de vencer a uno de considerados mejores jugadores del mundo de Go, el chino Fan Hui, no en una simple partida sino cuatro veces seguidas, hecho que tuvo lugar precisamente ayer. Un hito histórico para la inteligencia artificial documentado directamente por un editor de Nature, y que abre además posibilidades interesantísimas para el uso de la inteligencia artificial en campos como el análisis científico. En el siguiente desafío, se enfrentará al surcoreano Lee Sedol, la persona con mayor número de victorias en torneos de todo el mundo. Para la inteligencia artificial, un verdadero hito histórico, todo un momento de la verdad, que la mayor parte de los analistas situaban como posible dentro de una década. Ha sido la metodología, la idea de aplicar deep learning con reinforcement learning, unida a la potencia computacional disponible, la que ha obtenido estos resultados. No lo veáis como una frivolidad científica, como una curiosidad o como un detalle: hablamos de un auténtico desafío, de algo que abre posibilidades capaces de cambiar muchas cosas. Un verdadero hito.

Como dirían en Memorias de África,

“a Marvin Minsky le gustará saberlo. Tengo que acordarme de decírselo”.

Lo que nos queda de década va a ser precisamente esto: demostraciones sucesivas de cómo una máquina con la potencia computacional adecuada y sometida a un proceso de entrenamiento bien diseñado es capaz de mejorar la eficiencia de un hombre a la hora de desarrollar tareas cada vez más complejas, más difusas más desafiantes, más… humanas. Si en un tema he tenido la impresión, cuando me lo han explicado adecuadamente, de estar viendo algo que iba a cambiar el futuro de la humanidad en su conjunto, ha sido con machine learning. Si piensas que como directivo no te va a afectar, vete repensándolo.

 

 

Game over: Kasparov and the machine (THINKFilm)Mi columna de El Español de hoy, titulada “Otra inteligencia artificial“, es un intento de utilizar el reciente desarrollo de un investigador especializado en deep learning, Matthew Lai, que ha creado un algoritmo llamado Giraffe capaz de aprender a jugar al ajedrez a nivel de maestro internacional en tan solo setenta y dos horas, para explicar las posibilidades de la inteligencia artificial y el machine learning de una manera razonablemente didáctica.

Se suele asociar la inteligencia artificial con la fuerza bruta computacional, con enormes supercomputadores del estilo del famoso Deep Blue o Watson, de IBM, capaces de vencer al campeón del mundo de ajedrez o a los mejores jugadores de Jeopardy gracias a la posibilidad de procesar masivamente datos en cantidades que exceden en mucho las posibilidades de un cerebro humano. Sin embargo, a pesar de que el deep learning es ya una disciplina razonablemente arraigada, se tiende a prestar poca atención, al menos a nivel de divulgación, a la posibilidad de que una máquina leve a cabo procesos de aprendizaje más enfocados a la eficiencia, al análisis de situaciones similares o de series históricas de datos para plantear modelos de aprendizaje más parecidos a los que desarrolla un cerebro humano.

La idea es que aunque el cerebro no deba ser necesariamente el modelo para la máquina, sí puede ayudar a conceptualizar formas de plantear el aprendizaje que ayuden a mejorar la eficiencia (¿por qué estudiar posibilidades que resultan completamente absurdas o extremadamente improbables?) o a evaluar situaciones de manera más adecuada. Mi pretensión con el análisis es ayudar a aquellos que dispongan de datos a evaluar si pueden ser adecuados como para alimentar a un algoritmo capaz de aprender a tomar decisiones con ellos: son muchas las compañías que toman decisiones mediante análisis de datos, pero mi experiencia es que no son tantas las que ven en tecnologías la inteligencia artificial y el machine learning una herramienta capaz de ayudarles. A ver si a través de ejemplos como el del ajedrez y el cambio de dimensión de este tipo de tecnologías empiezan a visualizar sus posibilidades.