IMAGE: John Phelan (CC BY)El MIT anuncia la creación de un nuevo centro, el Stephen A. Schwarzman College of Computing, dedicado a reorientar la institución para llevar el poder de la computación y la inteligencia artificial a todos los campos de estudio, posibilitando que el futuro de la computación y la inteligencia artificial se forme a partir de ideas de todas las otras disciplinas. La idea es utilizar la AI, el machine learning y la ciencia de datos con otras disciplinas académicas para “educar a los profesionales bilingües del futuro”, entendiendo como bilingües a personas en campos como la biología, la química, la política, la historia o la lingüística que también tienen experiencia en las técnicas de computación moderna que pueden ser aplicadas a ellos.

El centro se crea con un presupuesto de mil millones de dólares tras la aportación de $350 millones de la persona que le da nombre, Stephen A. Schwarzman, CEO de The Blackstone Group, la  trigésima cuarta persona más rica del mundo según el ranking de Forbes, y convierte a la institución en la que más claramente identifica el potencial futuro de una disciplina llamada a cambiar completamente el mundo tal y como lo conocemos. La idea de establecer el centro como una estructura propia y con un carácter fuertemente multidisciplinar refuerza la frase que llevo utilizando bastante tiempo tras leerla en un muy recomendable artículo de Erik Brynjolfsson y Andrew McAfee titulado The business of Artificial Intelligence, y que afirma que 

… durante la próxima década, la IA no reemplazará a los directivos, pero los directivos que utilizan la IA reemplazarán a los que no lo hacen”

El planteamiento de un centro multidisciplinar completamente independiente abre este planteamiento más allá del management, y afirma que un proceso similar, el desplazamiento de los profesionales tradicionales a manos de aquellos que saben utilizar herramientas como la AI, el machine learning o la ciencia de datos, ocurrirá en prácticamente todas las disciplinas. Un proceso de este tipo lo podemos ver ya en campos tan diferentes como el ya citado management, en el que compañías de todo el mundo adquieren herramientas analíticas para llevar a cabo la predicción y la automatización inteligente de procesos a partir de sistemas que aprenden de los datos, o las ciencias de la salud, en las que los profesionales se preguntan qué van a hacer cuando una buena parte de su trabajo, como los diagnósticos, sean llevados a cabo por herramientas algorítmicas.

La semana pasada, Google presentó estudios que demuestran que sus algoritmos de análisis de imagen son capaces ya de identificar tumores en cánceres de mama con un 99% de precisión. Otros estudios publicados en journals de prestigio afirman que pruebas diagnósticas como los ecocardiogramas pueden ya ser interpretados de manera completamente automática. El pasado año, cuando en el evento de innovación de Netexplo en París me pidieron que presentase a uno de los ganadores, la compañía india de diagnóstico de imagen médica Qure.ai, mi conversación con una de sus fundadoras en el escenario trató de explorar precisamente el aspecto de la supuesta sustitución: ¿cómo se sentían los radiólogos cuando, tras haber cedido sus archivos de imágenes a la compañía para que adiestrase su algoritmo, veían que este era capaz de diagnosticar tumores con mayor precisión que los propios facultativos? La respuesta fue clara: tras un breve período de adaptación, los profesionales de la medicina decidían que estaban mejor dejando que fuese el algoritmo el que llevase a cabo ese trabajo – algunos diagnósticos suponen, en ocasiones, examinar decenas o cientos de imágenes muy parecidas – y decidían dedicar su tiempo a otras tareas que consideraban más productivas. De hecho, algunos manifestaron que en la próxima generación de médicos, la habilidad de tomar una radiografía, mirarla y aventurar un diagnóstico sobre ella se perdería completamente, y sería vista como algo peligroso que los médicos hacían en la antigüedad. De nuevo, la misma respuesta: en los hospitales de todo el mundo, los algoritmos no sustituirán a los radiólogos, a los mamografistas ni a los ecocardiografistas… pero los profesionales que sepan utilizar inteligencia artificial y machine learning en sus diagnósticos sustituirán a los que no lo hacen, que incluso pasarán a ser vistos como un mayor riesgo para los pacientes.

El MIT no ha sido la única institución académica en entenderlo así, pero sí ha sabido ser la primera y la más visible a la hora de embarcarse en una iniciativa tan profundamente ambiciosa sobre el tema: en IE University llevamos muchos años haciendo que los profesores de nuestros programas más especializados en analítica y ciencia de datos se conviertan en una fuente de cursos para otros programas generalistas en disciplinas completamente diferentes, planteando grados con doble titulación que solapan ambas disciplinas, e introduciendo las humanidades como una parte fundamental del curriculum en todos los grados, como una manera de reflejar esa misma preocupación e intentar dar forma a los profesionales del futuro.

Tratemos de plantearlo así: en cada profesión, la inteligencia artificial y el machine learning encontrarán aplicaciones que, al cabo de un cierto tiempo, mejorarán las prestaciones de los humanos llevando a cabo esas mismas tareas. Para educar a esos nuevos profesionales, será fundamental que entiendan el funcionamiento de los algoritmos de inteligencia artificial y machine learning que utilizan, no solo para evitar un posible mal funcionamiento como el de ese algoritmo que, en Amazon, decidió dejar de contratar mujeres basándose en los datos históricos de la compañía, sino también para poder idear y diseñar nuevos procesos de innovación que apliquen la potencia de esos nuevos desarrollos tecnológicos y de otros aún más potentes que surgirán en el futuro.

El paradigma de la sustitución es, de por sí, autolimitante y peligroso. Nadie en su sano juicio entendería que insistiésemos en que le diagnosticase un médico humano en lugar de un algoritmo capaz de hacerlo con mucha más precisión, del mismo modo que muy pronto, nadie entenderá que pretendamos conducir nuestros automóviles sabiendo como sabemos que somos la fuente de la inmensa mayoría de los accidentes, cuando existen algoritmos capaces de hacerlo muchísimo mejor y de manera infinitamente más segura. Tratar de preservar empleos a costa de hacer mejor las cosas es una estrategia perdedora.

 

Los datos y la fe - LUCAMi segunda colaboración para el blog corporativo de LUCA, la unidad de Big Data e Inteligencia Artificial de Telefonica (aquí la primera) se titula “Los datos y la fe” (pdf), e intenta ahondar en el concepto de revolución frente a evolución que supone el machine learning y la idea de tratar a una máquina que se encuentra introducida en nuestra rutina diaria desde hace décadas, el ordenador, no tanto como una simple automatización de tareas, sino como algo capaz de captar datos y derivar sus propias reglas de funcionamiento a partir de ellos. 

Lograr extraer una ventaja competitiva de una revolución como el machine learning, con efectos comparables a lo que en su momento supuso el desarrollo y adopción masiva de internet, requiere por un lado directivos con el perfil adecuado convencidos del papel de la ciencia en el management de las compañías – un aspecto en el que incidí en mi primer artículo de la serie – y, por otro, de un convencimiento pleno de la necesidad de dotar a esas compañías de una cultura de datos que permita reorientar la totalidad de los productos y servicios de la compañía hacia ellos, como anteriormente lo hicimos con respecto a internet. Las mismas compañías que en los años ’90 creían que internet no supondría un cambio en su forma de hacer las cosas están ahora, un par de décadas después, completamente orientadas a la red, o si no llevaron a cabo ese cambio de mentalidad, muy probablemente hayan desaparecido. Ahora, las compañías deben tomar la decisión de formar a la totalidad de su personal en una tecnología que va a suponer un cambio fortísimo en la manera de entender el mundo en las próximas décadas, la que marcará la próxima gran discontinuidad entre los que la entienden y la saben aplicar y los que no.

Estamos aún, obviamente, en fases experimentales. Aún veremos en muchas ocasiones algoritmos capaces de aprender de los datos de maneras erróneas, de heredar sesgos o de crearlos en función de patrones que no sabíamos que estaban ahí. Si históricamente hemos incorporado menos mujeres que hombres a nuestras compañías, es posible que un algoritmo diseñado para optimizar procesos de reclutamiento alimentado con nuestro histórico de datos tienda, sin la supervisión adecuada, a discriminar a las mujeres en esos procesos, con todo lo que ello podría conllevar de pérdida de oportunidades para la atracción de talento. La adopción tecnológica tiene este comportamiento que requiere de procesos de ensayo y error, del desarrollo de una cultura que posibilite entender los mecanismos que conforman el aprendizaje de una máquina, la generación de algoritmos a partir de los datos, mediante procesos relativamente toscos al principio, pero que pueden evolucionar hasta mostrar patrones intrínsecamente superiores a los exhibidos por los tomadores de decisiones humanos.

No hablamos simplemente de hacer o plantear Machine Learning: hablamos de automatizarlo, de convertirlo en una parte integrante de nuestros procesos empresariales. Entender ese tipo de procesos no es simplemente el fruto de un proceso de reflexión o de aprendizaje individual: requiere la fe necesaria para trasformar las compañías y sus procesos de negocio – que en muchas ocasiones no mostraban signos especialmente preocupantes de ningún tipo de problema – para adaptarlos a las posibilidades que ofrece el machine learning. Las resistencias serán importantes, y van a requerir no solo argumentos, sino la capacidad de rodearse de personas que entiendan ese cambio, que crean en él, y que estén dispuestos a invertir en el proselitismo necesario para convencer a otros. Decididamente, no una tarea sencilla.

 

¿Sustituirán las máquinas a los abogados? - Abogacía EspañolaLa revista del Consejo General de la Abogacía, Abogacía Española, me pidió un artículo para su nº 108, que han titulado “¿Sustituirán las máquinas a los abogados?” (pdf), y en el que precisamente intenté analizar por qué razones el análisis de la posible sustitución de una tarea desarrollada por personas mediante una desarrollada por máquinas es, a mi juicio, erróneo.

La abogacía, como la gran mayoría de las profesiones relacionadas con la justicia, tiene un inherente componente humano que, en el estado actual del desarrollo tecnológico, sería sin duda imprudente negar o relegar al ámbito de la automatización. El desarrollo del machine learning incide precisamente en eso, en una visión de las máquinas que tiende a alejarse de la perspectiva clásica de la automatización, “máquina que ejecuta de manera repetitiva las órdenes que le hemos codificado en forma de variables, condicionales y bucles”, y se aproxima más a la idea de “máquina capaz de aprender y derivar esas reglas a partir del aprendizaje que es capaz de derivar a partir de un conjunto de datos”.

Sin embargo, que las máquinas puedan llevar a cabo tareas cada vez más sofisticadas y reservadas antes para los humanos no implica necesariamente un rumbo de colisión, dado que las tareas desarrolladas por humanos están muy lejos de mantenerse y perpetuarse de manera estática en el tiempo: el trabajo de un abogado, como ocurre con una gran cantidad de profesiones de otros tipos, está muy lejos de parecerse al que desarrollaba un abogado hace algunas décadas: utiliza otro tipo de medios, otros protocolos, requiere otras habilidades, y se apoya en tecnologías y herramientas de una manera sensiblemente diferente. Si un abogado de hace algunas décadas viese hoy trabajar a uno actual, una buena parte de su trabajo le parecería poco menos que ciencia-ficción. Dentro de algunas décadas, el paralelismo se repetirá, y los abogados utilizarán medios, protocolos, habilidades, tecnologías y herramientas que hoy nos parecerían ciencia-ficción, pero que serán las que definan la tarea de un abogado en ese momento.

Las máquinas solo sustituyen al que se niega a avanzar. En la justicia, veremos sin duda crecer la cantidad de casos que son juzgados mediante justicia algorítmica, mediante máquinas que, tras consultar la jurisprudencia, deciden qué casos son homologables a cuáles, toman en cuenta circunstancias de todo tipo que puedan afectar, y emiten un veredicto que, lógicamente, podrá ser sometido a apelación. Un avance que, en virtud del colapso de una buena parte de la administración de justicia, resulta cada día más acuciante y necesario, pero que no podremos considerar una sustitución de abogados por máquinas más allá del hecho de que la instrucción de una inmensa mayoría de esos casos hace mucho tiempo que no debería consumir horas de trabajo de personas, sino de máquinas. Dedicar horas de un profesional a casos tan mecánicos que podrían ser analizados por un simple conjunto de algoritmos es admitir que, en la práctica, ese profesional se está dedicando a tareas puramente administrativas, repetitivas y banales.

Pero más allá de la justicia algorítmica, tendremos otras connotaciones, Desarrollaremos asistentes capaces de llevar a cabo análisis predictivos de una buena parte de los elementos de la naturaleza humana, de recomendar actuaciones en función de determinadas circunstancias, de negociar en función de unos protocolos determinados, o de aliviar una buena parte del trabajo que hoy consideramos, en general, como la peor parte de lo que un abogado hace a lo largo de su día a día, todas esas tareas que, en realidad, enriquecen más bien poco y son consideradas aburridas o penosas. La máquina, en realidad, no quita el trabajo al (buen) profesional, sino que lo libera para llevar a cabo tareas de mayor valor añadido. Así ha sido desde los inicios de la revolución industrial, y existen pocas razones para pensar que no siga siendo así.

Esto implica, lógicamente, un reajuste de las capacidades y habilidades de un abogado. El abogado del futuro hablará con máquinas con la misma soltura con la que habla con personas, y eso no vendrá dado por sus habilidades para programar, porque la misma tarea de programación se habrá convertido, a ese nivel, en algo muy similar a lo que hacemos cuando hablamos con personas. En ese entorno, el abogado seguirá teniendo su papel, sus responsabilidades y su trabajo, aunque su día a día nos parezca alejado de lo que hoy conocemos. Pero seguirá ahí, como seguirán las causas que lo hacen imprescindible. La dialéctica de la sustitución es errónea, y además, dañina por lo que tiende a conllevar de resistencia al cambio. Resistencias que, aunque inútiles a medio plazo dado lo inexorable del cambio, sí pueden retrasarlo e influir en el ritmo del progreso, en la adaptación de los profesionales o en las perspectivas de competitividad de los actores implicados. Negar el cambio implica hacerse enemigo de él, con todo lo que ello conlleva. No, la máquina no sustituirá al abogado, pero los abogados que sepan utilizar máquinas sustituirán a los que no sepan. Eso sí que podemos tomarlo como seguro.

 

IMAGE: Max Pixel - CC0El gobernador del estado de California, Jerry Brown, ha aprobado una ley que, a partir de octubre de 2019, eliminará el pago de fianza en los tribunales, y recurrirá en su lugar a algoritmos que estimarán el riesgo de fuga o de cometer delitos adicionales en caso de ser puestos en libertad. El algoritmo, que los diferentes condados tendrán obligación de obtener bien a través de algún proveedor o mediante desarrollo propio, calificará ese riesgo como bajo, medio o elevado y, en función de la calificación obtenida, el juez decidirá poner al presunto delincuente en libertad o mantenerlo en custodia.

La eliminación de la fianza en forma de pago monetario se considera, como tal, un éxito para los defensores de los derechos civiles, que afirmaban que esa práctica era discriminatoria y daba lugar a una justicia diferente para ricos y pobres, en la que el hecho de no tener recursos económicos conllevaba una condena al paso por prisión que, en muchos casos, se convertía en parte del problema. En palabras de Brown,

“Today, California reforms its bail system so that rich and poor alike are treated fairly”

(“Hoy, California reforma su sistema de libertad bajo fianza para que tanto ricos como pobres reciban un trato justo”)

Sin embargo, la satisfacción de los defensores de los derechos civiles no es completa: no son pocos los temas, y particularmente aquellos relacionados con la justicia, en los que los algoritmos, alimentados con datos obtenidos del propio sistema de justicia, han mostrado sesgos que tienden a perjudicar a las personas en función de su raza o de su estatus socioeconómico. No hay nada que convierta a un algoritmo, por el hecho de serlo, en algo intrínsecamente neutral: de hecho, los algoritmos construyen sus sesgos a partir de los datos con los que son alimentados, lo que incrementa el riesgo de perpetuar sesgos que, en muchos casos, ya existían anteriormente.

Por otro lado, muchos algoritmos son definidos como propietarios para proteger la propiedad intelectual de las compañías que los desarrollan, lo que genera la aparición de cajas negras contra las que resulta difícil plantear una argumentación de defensa. Esta cuestión se puso ya de manifiesto con el uso de COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), un algoritmo desarrollado por Equivant para estimar el riesgo de reincidencia de los convictos y ayudar a los jueces a tomar decisiones sobre la extensión de sus penas. Una decisión tomada por ese algoritmo fue objeto de apelación en el caso Loomis v. Wisconsin, en el que el acusado alegó que el uso de dicho algoritmo en el cálculo de su sentencia, un veredicto de seis años de cárcel, violaba sus derechos porque evitaba que impugnase la validez científica y la precisión de la prueba al desconocer el funcionamiento del algoritmo, y porque éste tenía además en cuenta variables como el género y la raza del acusado.

La legislación aprobada por el estado de California establece un período de revisión para el funcionamiento del sistema algorítmico que culminará en 2023 tras cuatro años de funcionamiento y generación de datos, momento en el que se examinará el conjunto de decisiones tomadas mediante su uso y se tratarán de determinar los posibles efectos producidos. La llegada de los sistemas basados en algoritmos a los sistemas judiciales puede suponer un alivio importantísimo para la carga de trabajo de los tribunales, particularmente en la instrucción de muchos casos considerados habitualmente como rutinarios que podría ser realizada de manera razonablemente automatizada en sus primeras fases, con la adecuada supervisión. Sin embargo, todo indica que uno de los factores fundamentales debería ser la existencia de un requisito de transparencia que permitiese a todas las partes implicadas conocer de forma transparente el funcionamiento de esos algoritmos, las variables y los pesos empleados para la determinación de los resultados, además de asegurar que los datos utilizados para entrenar a esos algoritmos no contienen, como tales, factores que determinen la aparición de sesgos no justificados. Una tarea que no parece sencilla, pero cuyos resultados podrían ser importantísimos de cara a resolver el problema del colapso de la justicia, el protagonista de esa otra máxima que dice “justicia retrasada es justicia denegada“.

¿Cómo evolucionará el sistema aprobado por el estado de California? ¿Puede llegar a suponer una ventaja en términos de justicia y equidad con respecto al sistema anterior? ¿Qué discusiones vamos a mantener a partir del momento en que más y más algoritmos entran en nuestros sistemas judiciales?

 

El directivo analitico - LUCADesde LUCA, la unidad de Big Data e Inteligencia Artificial de Telefonica, me pidieron un artículo para su blog corporativo sobre los nuevos entornos que precisan, cada vez más, tomar decisiones inteligentes a partir de los datos, y la importancia del análisis de esos datos de cara al desarrollo de un nuevo perfil de directivo. Una tendencia creciente en las compañías modernas que se encuadra en desmitificar el llamado gut feeling, esa supuesta “intuición” de los directivos que, cada día más, prueba que por cada una de esas decisiones acertadas hay, en realidad, un número similar o en ocasiones mayor de decisiones erróneas en contextos similares. 

Mi artículo, titulado “El directivo analítico” (pdf), trata de exponer cómo la llegada del machine learning y la analítica avanzada de datos al mundo directivo nos acerca cada vez más a entornos con un mayor nivel de profesionalización, más científicos y menos dados a sacralizar “la experiencia por la experiencia”, en beneficio de unas herramientas analíticas adecuadas y de unos procedimientos más rigurosos. El management, como ocurre en todas las disciplinas, está destinado a ser cada vez menos “magia” y más ciencia. Para las compañías, entender el funcionamiento de los proyectos de machine learning, sus requerimientos y los pasos que hay que dar para poder alimentar los algoritmos adecuados con datos resulta cada vez más importante – sí, todos los directivos piensan que “tienen muchísimos datos” y que “todos ellos pueden ser utilizados inmediatamente”, pero la realidad es otra muy diferente y mucho más compleja. Sabes qué podemos pedir a un algoritmo, qué posibilidades reales tiene de generar resultados tangibles y qué tiempos de desarrollo cabe esperar en un proyecto de este tipo es cada día más importante para las compañías.

A lo largo de la próxima década, como bien comentan Erik Brynjolfsson y Andrew McAfee en ese gran artículo titulado The business of artificial intelligence, la inteligencia artificial va a cambiar la forma de entender el management hasta el punto de que “aunque la inteligencia artificial no sustituya a los directivos, los directivos que utilicen inteligencia artificial sí sustituyan a los que no lo hacen.” Si como directivo sigues viendo el desarrollo de machine learning e inteligencia artificial desde lejos, como quien ve una película de ciencia-ficción, deberías saber que lo que haces, sea lo que sea, será en algún momento mejorado por otros directivos que sí han aprendido a aprovechar sus posibilidades. Entender el funcionamiento de este tipo de proyectos, su dimensionamiento, sus diferentes fases y lo que se les puede pedir de manera realista se está convirtiendo, tanto a nivel corporativo como personal, en una necesidad cada vez más acuciante.