IBM "mechanical excavators vs. teaspoons" ad (Saatchi & Saatchi, early '80s)El pasado día 15, un tweet me recordó este anuncio de IBM que aparece en la ilustración, creado por Saatchi & Saatchi a principios de los años ’80: dos personas viendo trabajar una excavadora, el primero lamentándose por las doce personas con palas que podrían estar trabajando ahí, y el segundo recordándole que si se trata de dar trabajo a más personas, ese mismo trabajo podrían hacerlo doscientas personas equipadas con cucharillas de té.

La investigación de la cita nos remite primero al economista norteamericano Milton Friedman en los ’60 y, anteriormente, al político canadiense William Aberhart, que la utilizaron para hacer ver el absurdo de priorizar la generación de puestos de trabajo a la eficiencia. Por supuesto que podemos emplear más personas si lo que les proporcionamos son herramientas inadecuadas, pero en realidad, la finalidad de emplear personas es hacer un trabajo, y todo lo que contribuya a que ese trabajo se haga de manera menos eficiente es, como tal, negativo.

Vivimos tiempos en los que la discusión sobre las máquinas, los algoritmos, los robots o cualquier otra tecnología desplazando a los humanos de sus puestos de trabajo se generaliza cada vez más. ¿Qué van a hacer los pobres taxistas y camioneros cuando los vehículos conduzcan solos? ¿Y los operadores de bolsa cuando sean algoritmos los que compren y vendan acciones? ¡Oh, dios mío, los planificadores de publicidad, ahora que la gran mayoría de la misma es negociada por máquinas en tiempo real! ¡Por no hablar de los operadores de call-center, de servicio al cliente o de las líneas de caja de los supermercados!

Si lo que queremos es mantener puestos de trabajo por encima de todo, demos a estas personas herramientas ineficientes, protejamos su trabajo prohibiendo la entrada de tecnologías, y sigamos trabajando de manera ineficiente. Si alguno se pregunta por qué tiene que pasarse tantas horas haciendo algo que una máquina podría hacer mucho mejor y con menos errores, no nos preocupemos: con una sola pregunta, “¿prefieres estar aquí haciendo un trabajo absurdo, o prefieres estar muerto de hambre en tu casa?” ya le desarmaremos completamente.

Priorizar la generación o el mantenimiento de puestos de trabajo es absurdo una vez que se demuestra que un trabajo puede ser hecho por una máquina con mayor calidad y eficiencia. Simplemente, no tiene ningún sentido. Durante mucho tiempo, hemos ido viendo desaparecer infinidad de puestos de trabajo, simplemente porque una tecnología los convertía en redundantes, en innecesarios, o les hacía perder su sentido. Ahora, el paso de la tecnología se ha acelerado, el número de tareas que una máquina es capaz de hacer mejor que un hombre crece rápidamente, y todos tenemos miedo de ser los siguientes.

Sí, es un problema. Pero su solución nunca estará en impedir el uso de la tecnología o en tasarla con impuestos que la hagan menos competitiva. La solución estará en mejorar la flexibilidad de la preparación de las personas para que puedan hacer otras cosas, en mejorar la educación para que permita que sean más versátiles o se readapten a otras tareas, para que se reinventen profesionalmente, para que busquen otras tareas que sean susceptibles de generar un valor, o, en último término, que tengan una red de seguridad social que les permita no caer bajo el umbral de la pobreza. Soluciones sociales, políticas o educacionales que tienden hacia una redefinición del concepto de trabajo, hacia un trabajo convertido en algo que alguien quiere hacer porque le encuentra sentido y genera un valor para alguien, y que en todo caso resultarán mucho más interesantes que la alternativa absurda de tratar de impedir que la tecnología lo haga. Entre otras cosas, porque en la estructura económica actual, impedir el uso de una tecnología que aporta eficiencia es completamente imposible: siempre habrá una compañía en un país que tenga interés y posibilidad de utilizarla, que adquiera con ello una ventaja competitiva, y que desplace a otras en el mercado.

Sí, los chatbots eliminan puestos de trabajo. Pero también crean otros, y mientras los primeros eran profundamente alienantes, desesperantes, mal pagados y de elevada rotación, los segundos ofrecen posibilidades mucho más interesantes. Y como los chatbots, cualquier otra tecnología que genere eficiencia. Cada vez que nos enfrentemos a una tecnología con el potencial de eliminar puestos de trabajo, preguntémonos cuáles son nuestros grados de libertad ante ello, y sobre todo, de qué lado queremos estar. Solo uno de los dos lados será sostenible.

 

Garry Kasparov vs. Deep Blue

“We have to start recognizing the inevitability of machines taking over more and more tasks that we used to do in the past. It’s called progress. Machines replaced farm animals and all forms of manual labor, and now machines are about to take over more menial parts of cognition. Big deal. It’s happening. And we should not be alarmed about it. We should just take it as a fact and look into the future, trying to understand how can we adjust.”

Garry Kasparov

(“Tenemos que empezar a reconocer la inevitabilidad de que las máquinas se encarguen de más y más tareas que solíamos hacer en el pasado. Se llama progreso. Las máquinas reemplazaron a los animales de granja y a todas las formas de trabajo manual, y ahora las máquinas están a punto de asumir más partes sencillas de la cognición. Gran cosa. Está pasando. Y no debemos alarmarnos por ello. Debemos asumirlo y mirar hacia el futuro, tratando de entender cómo podemos ajustarnos a ello”)

 

La frase es de alguien que, en 1997, vio como una máquina le vencía al ajedrez, el juego en el que había logrado convertirse en campeón absoluto a nivel mundial. La pronunció en una entrevista en la BBC titulada Why the world should embrace AI, en la que se incluye una entrevista en vídeo. La máquina que venció a Kasparov no era inteligente: simplemente, era capaz de calcular escenarios combinatorios y probabilidades con mucha más velocidad y precisión que un cerebro humano. Una simple cuestión de fuerza bruta a la que ya estamos perfectamente acostumbrados, que nos parece perfectamente asumible y que no nos resulta en absoluto insultante.  El ajedrez, por su naturaleza, es particularmente sensible a esa fuerza bruta: es una tarea perfectamente acotada y definida por unas reglas claras e inflexibles, en cuyo desarrollo juega un papel fundamental el análisis de escenarios. Una máquina, sencillamente, posee más capacidad de cálculo que una persona, lo que le permite calcular y contemplar más escenarios.

Desde aquella partida de ajedrez, las cosas han cambiado mucho. Ahora una máquina con capacidad de aprender ya gana a los humanos en juegos de preguntas y respuestas como el Jeopardy, al milenario juego del Go y hasta al poker, pero lo importante no son estos retos y desafíos meramente propagandísticos, sino la posibilidad de aplicar esa capacidad de aprendizaje a muchas otras tareas. Una máquina ya no es simplemente algo capaz de hacer lo que un humano le indica, una tarea repetitiva que es desarrollada más rápido, con más precisión y con menos errores, sino que se ha convertido en algo capaz de hacer cosas que los humanos no son capaces de hacer: aprender de unos datos, desarrollar un modelo que los explica, y llevar a cabo análisis mejores que los que podrían llevar a cabo los humanos que la programaron. No, no va a evolucionar para convertirse en Terminator ni en ningún otro tipo de robot asesino, porque no son inteligentes: simplemente son capaces de llevar a cabo procesos de aprendizaje en tareas muy definidas, con reglas acotadas y escenarios limitados, pero no por ello dejan de tener extraordinarias posibilidades, capaces de separar a las empresas competitivas de las que no lo son.

Garry Kasparov lo sabe. No es cuestión de tratar de detener lo que no puede ser detenido: el progreso es inevitable, y ofrece posibilidades impresionantes. Muy pronto, los conocimientos de machine learning serán el nuevo “manejo de hoja de cálculo” en los curriculum, y habremos pasado de verlo como algo absolutamente especializado y solo al alcance de científicos de datos, para considerarlo algo perfectamente normal, parte del día a día, algo en lo que confiamos para tareas de todo tipo.

Ve preparándote.

 

Me, myself and AI - OECD ForumAyer tuve la oportunidad de participar como discussion leader en la sesión titulada Me, myself & AI encuadrada dentro del Forum de la Organización para la Cooperación y el Desarrollo Económico (OCDE): tres horas de interesantísima discusión en un formato intensamente participativo, en el que tratamos la evolución y el futuro de una escenario definido cada vez más por algoritmos de machine learning aplicados a todo tipo de ámbitos.

Europa Press recogió algunos de mis posicionamientos durante el foro, en una noticia que han titulado “Dans (IE) insta a las empresas a reorganizar su actividad en torno a los datos para ser competitivas” y que hoy aparecen reflejados en diversos medios: la necesidad de orientar la actividad de las compañías a la obtención de datos, con el fin de poder alimentar algoritmos que nos doten de capacidad de gestión eficiente, rápida y diferencial. Estamos aún muy lejos del desarrollo de una inteligencia artificial de propósito general como tal, pero los algoritmos de machine learning van posicionándose cada vez más como soluciones óptimas para un número creciente de tareas, y además, han disminuido enormemente sus barreras de entrada. La aparición de plataformas de Machine Learning as a Service (MLaaS) y los movimientos de las grandes compañías tecnológicas para posicionarse en ese ámbito mediante la adquisición de startups con actividad en ese área están determinando un escenario que cada vez tiene más influencia a la hora de definir la competitividad de las compañías: los algoritmos de machine learning definen qué productos son ofrecidos a qué clientes potenciales, políticas de pricing, prevención del abandono o churn, detección de posible actividad fraudulenta, opciones en la determinación del marketing mix, y cada vez más cosas.

Pero más allá de este tipo de cuestiones, con indudable influencia en la actividad de las compañías a día de hoy, y sin caer en el hype y la desinformación que supone pensar que ya vivimos rodeados de inteligencia artificial, la oportunidad de participar en un foro como el de ayer, con especialistas de diversas compañías, personas que llevan años desarrollando algoritmos en aspectos como procesamiento del lenguaje o visión computerizada, o con políticos que están tomando decisiones que condicionan las posibilidades de actuación de las compañías resulta verdaderamente interesante. Entre las cuestiones que discutimos en el foro estuvieron, entre otras, como estructurar las variables dependientes que un algoritmo debe optimizar (y qué supone optimizarlas), la necesidad de pensar el la articulación de un nuevo sistema operativo en el que se desarrollarán muchas partes significativas de la actividad humana, o la interacción entre algoritmos y personas. En mi intervención, intenté plantear ese tipo de cuestiones como si fueran un lenguaje de programación: cuáles serían las variables a definir y cómo se definen, cómo se estructuran los condicionales, y cómo generamos bucles que ofrezcan un control de la actividad resultante, además de tocar las necesidades de preparación de las personas y las habilidades que vamos a tener que desarrollar de cara a ese entorno, en una entrevista que publicaré en cuanto esté disponible. También surgieron interesantes discusiones en torno a temas éticos, a posibles conflictos entre las decisiones de un algoritmo y las de una persona, o a los posibles sesgos que pueden generar.

Este tipo de foros de la OCDE tienen una gran importancia de cara al desarrollo de líneas de pensamiento que influencian el entorno legislativo y las decisiones de actores de muy diversos tipos en empresas, gobiernos y organismos de todo tipo. Agradezco enormemente a la OCDE la oportunidad de participar. En cuanto tenga disponible más materiales sobre la jornada, los iré añadiendo a la entrada.

 

 

IMAGE: Kittipong Jirasukhanont - 123RF

Durante las últimas semanas, he estado utilizando un artículo de Wired, titulado Courts are using AI to sentence criminals. That must stop now, para generar discusiones interesantes en algunas de mis clases y conferencias: el uso de algoritmos en procesos judiciales en los Estados Unidos para determinar, por ejemplo, la probabilidad de reincidencia de un acusado, y su uso para administrar una sentencia más o menos dura dependiendo de ello.

Ayer, el New York Times comentó el tema al hilo del mismo caso que el descrito en Wired, el de Eric Loomis, un criminal enviado a prisión el pasado marzo por un juez que utilizó a instancias del fiscal el resultado de COMPAS, un algoritmo creado por Equivant, e hizo constar en el sumario que

“you’re identified, through the COMPAS assessment, as an individual who is a high risk to the community.”

(“usted ha sido identificado, mediante la evaluación COMPAS, como un individuo que representa un alto riesgo para la comunidad.”)

La defensa de Loomis ha alegado que el uso del informe generado por el algoritmo vulnera los derechos del acusado, por ser un algoritmo secreto que no puede ser inspeccionado ni estudiado, lo que impide que sea discutido o cuestionado de manera efectiva. En efecto, no se trata únicamente de que el algoritmo sea secreto debido al interés de su creador, sino que, como comentábamos hace algún tiempo, los procesos de machine learning generan cajas negras que una inteligencia humana no puede monitorizar, que solo pueden ser valorados en función de la calidad de su output, lo que genera un inmediato problema de transparencia.

El proceso es claro: un banco, por ejemplo, podría fácilmente comenzar a alimentar un algoritmo de machine learning con todo su archivo de préstamos e hipotecas a lo largo de la historia y sus resultados en cuando a pago o impago, y muy posiblemente se encontraría con que, al cabo del tiempo, los resultados del algoritmo podrían mejorar las decisiones de un comité de riesgos integrado por personas con amplia experiencia en banca. Si efectivamente es así, el banco podría optar por eliminar a su comité de riesgos y sustituirlo por el proceso automatizado, en aras no solo de una reducción de costes, sino también de un resultado económicamente mejor. Sin embargo, esa decisión, que llevaría a que los clientes del banco viesen cómo la decisión de si les conceden o no una hipoteca pasa a depender de un algoritmo, podría tener dos problemas:

  • Falta de transparencia: de acuerdo, no me concedes la hipoteca… pero, ¿qué debería hacer si quiero llegara obtenerla? ¿Cuáles han sido las variables que han hecho que no me la concedas, y cómo debería trabajar para mejorar mi elegibilidad a la hora de obtener esa hipoteca más adelante? ¿Cómo me explicas una decision que ni tú mismo entiendes, y de la que solo sabes que maximiza tus posibilidades de obtener la devolución del préstamo?
  • Sesgos: contrariamente a lo que algunos podrían pensar, el uso de un algoritmo no garantiza una mayor objetividad, sino un reflejo de los sesgos que pudiese haber en los datos originales. Si los datos con los que el banco alimentó a su algoritmo, por ejemplo, reflejasen algún tipo de tendencia histórica en la que se tendía a rechazar, por ejemplo, a los solicitantes de un grupo determinado en función de criterios como sexo, etnia, religión, etc., esos sesgos podrían consolidarse en el algoritmo obtenido a partir de ellos, pero ser difíciles de identificar por parte de una inteligencia humana.

En la justicia norteamericana, son cada vez más los procesos que están siendo colonizados por algoritmos: muchos abogados comienzan a utilizar algoritmos como Ross, basado el el Watson de IBM, no solo para determinar qué jurisprudencia es más relevante para el caso que están preparando, sino incluso para examinar los posibles sesgos del juez que tienen asignado basándose en todas sus decisiones anteriores en posibles casos similares, con todo lo que ello conlleva de cara a optimizar los argumentos utilizados. A medida que ese tipo de metodologías de trabajo se consolidan, los procesos de machine learning que los soportan van convirtiéndose en cajas negras dotadas cada vez de una mayor complejidad, con procesos que un humano es cada vez más incapaz de replicar o entender.

La robotización o algoritmización de la justicia podría, por un lado, convertirse en un posible recurso para muchos de los problemas generados por la saturación de los tribunales: todo caso suficientemente claro, sencillo o evidente podría dejar de ocupar valiosos recursos de un juez o tribunal humanos, y pasar a ser determinado por un algoritmo automatizado, como ocurre ya de hecho con muchas infracciones de tráfico, en las que el algoritmo, en realidad, tiene una necesidad de inteligencia muy baja: basta con que un requisito determinado se cumpla, para que se genere un resultado. A medida que la complejidad de los casos se incrementa, podemos encontrarnos con casos como el descrito, que pueden generar una indefensión: ¿cómo defenderme de un veredicto basado en una caja negra que simplemente valora una serie de variables de entrada y devuelve un resultado? ¿Debemos integrar la posibilidad de explicar el veredicto en los propios algoritmos, exigiendo una determinación de los pesos empleados o de los cálculos utilizados de manera que un humano pueda llegar a seguirlos?

Hace pocos días, en Netexplo, tuve ocasión de entrevistar en el escenario a la fundadora de una compañía de diagnóstico médico mediante imagen, Qure.ai. La conversación que mantuve me generó cuestiones muy interesantes: a lo largo del tiempo, una vez que los médicos adoptan el uso de su tecnología para determinar si una radiografía, un escáner o una tomografía muestran un tumor, la habilidad de un médico para examinar manualmente una imagen podría llegar a perderse por falta de práctica, y aunque la máquina, a medida que mejora su algoritmo, pase a ofrecer resultados mucho mejores que los médicos humanos, estaríamos ante una situación de pérdida de una habilidad que los humanos habíamos desarrollado como tal. Es el mismo tipo de argumento que el empleado por Nicholas Carr en “Superficiales” cuando pensamos, por ejemplo, que antes de los teléfonos móviles éramos capaces de recordar más números de teléfono de memoria: internet nos vuelve estúpidos, porque sustituye habilidades que antes teníamos y las convierte en innecesarias. O también , por supuesto, contra-argumentado de la misma manera: nadie sería capaz, hoy en día, de escribir sobre una piedra, porque nuevas tecnologías y soportes lo han convertido en innecesario… y no pasa nada, simplemente aceptamos que el contexto, y en este caso, la inteligencia artificial, redefine la inteligencia humana. Pero ¿qué ocurre cuando esa pérdida de la habilidad humana se convierte en decisiones “subcontratadas” a una caja negra que no podemos interpretar?

 

IMAGE: Johan2011 - 123RF

Facebook, en su cruzada contra las noticias falsas, anuncia un sistema del que ya habíamos hablado en entradas anteriores, pero que aún no se había concretado y que a mí me parece claramente el más prometedor: tratar de identificar mediante machine learning los patrones de difusión de noticias que resultan sospechosos, bien debido al uso de cuentas específicas identificadas como sospechosas de participar en esos esquemas, o por la forma en que se produce esa difusión.

¿Es la identificación de rumores y noticias falsas una tarea adecuada para el machine learning? Todo parece indicar que su uso resulta sumamente prometedor: por un lado, la red social cuenta con un repositorio de datos históricos importantes que han podido ser sujetos a comprobación, repositorio que además crece de manera cada vez más rápida debido a la cada vez mayor actividad de las páginas dedicadas al fact-checking. Por otro, se trata de un fenómeno con patrones identificables, en el que los actores implicados – que pueden ser partidos políticos, gobiernos u otras entidades con un interés en el tema – utilizan habitualmente sistemas conocidos, como cuentas falsas a las que recurren de manera repetitiva, o bots que generan una actividad elevada.

Un sistema similar es el utilizado por Twitter para la eliminación de cuentas creadas de manera automática, actividad en la que ya posee una amplia experiencia, pero que se ha convertido en un verdadero problema a la hora de evaluar la actividad en su red. Al principio, las cuentas falsas eran completamente obvias: cuentas que se creaban para venderlas como followers falsos que inflaban las estadísticas de quien pagaba por ello, pero que permanecían inactivas, y que a partir de un cierto tiempo como tales, eran identificadas como falsas. De ahí, se pasó a cuentas que llevaban a cabo una actividad determinada, tal como seguir algunas cuentas o hacer algunos retweets o likes que también podían ser susceptibles de comercialización, pero respondiendo a patrones generalmente identificables. La carrera continúa cuando esos patrones se someten a sistemas aleatorios para evitar su detección, en lo que empieza a parecerse al argumento de una novela de Philip K. Dick: robots diseñados para no ser identificados como tales, que luchan contra otros robots pensados para hacerlo, y pruebas diagnósticas que evalúan si lo son o no.

En el caso de Facebook y las noticias falsas, estamos aún al principio de esta carrera, pero la carrera armamentística comienza indudablemente más fuerte: los algoritmos de machine learning empleados tratarán de ir empleando metodologías cada vez más sofisticadas, en un intento de identificar los progresos de quienes tratan de esconder esos patrones, y también, por supuesto, de reducir el número de falsos positivos, de noticias reales que se vean sometidas a algún tipo de “cuarentena” por recibir una atención muy elevada de manera muy rápida pero genuina. Identificar los patrones de difusión viral real y separarlos de los artificiales creados en función de unos intereses determinados parece, en efecto, una tarea adecuada para un algoritmo de machine learning, pero también nos lleva a un cierto conflicto de intereses si Facebook pretende comercializar ese tipo de patrones de difusión viral a sus anunciantes, una tentación que ya ha esbozado anteriormente. Pronto empezaremos a ver los resultados.