IMAGE: John Phelan (CC BY)El MIT anuncia la creación de un nuevo centro, el Stephen A. Schwarzman College of Computing, dedicado a reorientar la institución para llevar el poder de la computación y la inteligencia artificial a todos los campos de estudio, posibilitando que el futuro de la computación y la inteligencia artificial se forme a partir de ideas de todas las otras disciplinas. La idea es utilizar la AI, el machine learning y la ciencia de datos con otras disciplinas académicas para “educar a los profesionales bilingües del futuro”, entendiendo como bilingües a personas en campos como la biología, la química, la política, la historia o la lingüística que también tienen experiencia en las técnicas de computación moderna que pueden ser aplicadas a ellos.

El centro se crea con un presupuesto de mil millones de dólares tras la aportación de $350 millones de la persona que le da nombre, Stephen A. Schwarzman, CEO de The Blackstone Group, la  trigésima cuarta persona más rica del mundo según el ranking de Forbes, y convierte a la institución en la que más claramente identifica el potencial futuro de una disciplina llamada a cambiar completamente el mundo tal y como lo conocemos. La idea de establecer el centro como una estructura propia y con un carácter fuertemente multidisciplinar refuerza la frase que llevo utilizando bastante tiempo tras leerla en un muy recomendable artículo de Erik Brynjolfsson y Andrew McAfee titulado The business of Artificial Intelligence, y que afirma que 

… durante la próxima década, la IA no reemplazará a los directivos, pero los directivos que utilizan la IA reemplazarán a los que no lo hacen”

El planteamiento de un centro multidisciplinar completamente independiente abre este planteamiento más allá del management, y afirma que un proceso similar, el desplazamiento de los profesionales tradicionales a manos de aquellos que saben utilizar herramientas como la AI, el machine learning o la ciencia de datos, ocurrirá en prácticamente todas las disciplinas. Un proceso de este tipo lo podemos ver ya en campos tan diferentes como el ya citado management, en el que compañías de todo el mundo adquieren herramientas analíticas para llevar a cabo la predicción y la automatización inteligente de procesos a partir de sistemas que aprenden de los datos, o las ciencias de la salud, en las que los profesionales se preguntan qué van a hacer cuando una buena parte de su trabajo, como los diagnósticos, sean llevados a cabo por herramientas algorítmicas.

La semana pasada, Google presentó estudios que demuestran que sus algoritmos de análisis de imagen son capaces ya de identificar tumores en cánceres de mama con un 99% de precisión. Otros estudios publicados en journals de prestigio afirman que pruebas diagnósticas como los ecocardiogramas pueden ya ser interpretados de manera completamente automática. El pasado año, cuando en el evento de innovación de Netexplo en París me pidieron que presentase a uno de los ganadores, la compañía india de diagnóstico de imagen médica Qure.ai, mi conversación con una de sus fundadoras en el escenario trató de explorar precisamente el aspecto de la supuesta sustitución: ¿cómo se sentían los radiólogos cuando, tras haber cedido sus archivos de imágenes a la compañía para que adiestrase su algoritmo, veían que este era capaz de diagnosticar tumores con mayor precisión que los propios facultativos? La respuesta fue clara: tras un breve período de adaptación, los profesionales de la medicina decidían que estaban mejor dejando que fuese el algoritmo el que llevase a cabo ese trabajo – algunos diagnósticos suponen, en ocasiones, examinar decenas o cientos de imágenes muy parecidas – y decidían dedicar su tiempo a otras tareas que consideraban más productivas. De hecho, algunos manifestaron que en la próxima generación de médicos, la habilidad de tomar una radiografía, mirarla y aventurar un diagnóstico sobre ella se perdería completamente, y sería vista como algo peligroso que los médicos hacían en la antigüedad. De nuevo, la misma respuesta: en los hospitales de todo el mundo, los algoritmos no sustituirán a los radiólogos, a los mamografistas ni a los ecocardiografistas… pero los profesionales que sepan utilizar inteligencia artificial y machine learning en sus diagnósticos sustituirán a los que no lo hacen, que incluso pasarán a ser vistos como un mayor riesgo para los pacientes.

El MIT no ha sido la única institución académica en entenderlo así, pero sí ha sabido ser la primera y la más visible a la hora de embarcarse en una iniciativa tan profundamente ambiciosa sobre el tema: en IE University llevamos muchos años haciendo que los profesores de nuestros programas más especializados en analítica y ciencia de datos se conviertan en una fuente de cursos para otros programas generalistas en disciplinas completamente diferentes, planteando grados con doble titulación que solapan ambas disciplinas, e introduciendo las humanidades como una parte fundamental del curriculum en todos los grados, como una manera de reflejar esa misma preocupación e intentar dar forma a los profesionales del futuro.

Tratemos de plantearlo así: en cada profesión, la inteligencia artificial y el machine learning encontrarán aplicaciones que, al cabo de un cierto tiempo, mejorarán las prestaciones de los humanos llevando a cabo esas mismas tareas. Para educar a esos nuevos profesionales, será fundamental que entiendan el funcionamiento de los algoritmos de inteligencia artificial y machine learning que utilizan, no solo para evitar un posible mal funcionamiento como el de ese algoritmo que, en Amazon, decidió dejar de contratar mujeres basándose en los datos históricos de la compañía, sino también para poder idear y diseñar nuevos procesos de innovación que apliquen la potencia de esos nuevos desarrollos tecnológicos y de otros aún más potentes que surgirán en el futuro.

El paradigma de la sustitución es, de por sí, autolimitante y peligroso. Nadie en su sano juicio entendería que insistiésemos en que le diagnosticase un médico humano en lugar de un algoritmo capaz de hacerlo con mucha más precisión, del mismo modo que muy pronto, nadie entenderá que pretendamos conducir nuestros automóviles sabiendo como sabemos que somos la fuente de la inmensa mayoría de los accidentes, cuando existen algoritmos capaces de hacerlo muchísimo mejor y de manera infinitamente más segura. Tratar de preservar empleos a costa de hacer mejor las cosas es una estrategia perdedora.

 

Los datos y la fe - LUCAMi segunda colaboración para el blog corporativo de LUCA, la unidad de Big Data e Inteligencia Artificial de Telefonica (aquí la primera) se titula “Los datos y la fe” (pdf), e intenta ahondar en el concepto de revolución frente a evolución que supone el machine learning y la idea de tratar a una máquina que se encuentra introducida en nuestra rutina diaria desde hace décadas, el ordenador, no tanto como una simple automatización de tareas, sino como algo capaz de captar datos y derivar sus propias reglas de funcionamiento a partir de ellos. 

Lograr extraer una ventaja competitiva de una revolución como el machine learning, con efectos comparables a lo que en su momento supuso el desarrollo y adopción masiva de internet, requiere por un lado directivos con el perfil adecuado convencidos del papel de la ciencia en el management de las compañías – un aspecto en el que incidí en mi primer artículo de la serie – y, por otro, de un convencimiento pleno de la necesidad de dotar a esas compañías de una cultura de datos que permita reorientar la totalidad de los productos y servicios de la compañía hacia ellos, como anteriormente lo hicimos con respecto a internet. Las mismas compañías que en los años ’90 creían que internet no supondría un cambio en su forma de hacer las cosas están ahora, un par de décadas después, completamente orientadas a la red, o si no llevaron a cabo ese cambio de mentalidad, muy probablemente hayan desaparecido. Ahora, las compañías deben tomar la decisión de formar a la totalidad de su personal en una tecnología que va a suponer un cambio fortísimo en la manera de entender el mundo en las próximas décadas, la que marcará la próxima gran discontinuidad entre los que la entienden y la saben aplicar y los que no.

Estamos aún, obviamente, en fases experimentales. Aún veremos en muchas ocasiones algoritmos capaces de aprender de los datos de maneras erróneas, de heredar sesgos o de crearlos en función de patrones que no sabíamos que estaban ahí. Si históricamente hemos incorporado menos mujeres que hombres a nuestras compañías, es posible que un algoritmo diseñado para optimizar procesos de reclutamiento alimentado con nuestro histórico de datos tienda, sin la supervisión adecuada, a discriminar a las mujeres en esos procesos, con todo lo que ello podría conllevar de pérdida de oportunidades para la atracción de talento. La adopción tecnológica tiene este comportamiento que requiere de procesos de ensayo y error, del desarrollo de una cultura que posibilite entender los mecanismos que conforman el aprendizaje de una máquina, la generación de algoritmos a partir de los datos, mediante procesos relativamente toscos al principio, pero que pueden evolucionar hasta mostrar patrones intrínsecamente superiores a los exhibidos por los tomadores de decisiones humanos.

No hablamos simplemente de hacer o plantear Machine Learning: hablamos de automatizarlo, de convertirlo en una parte integrante de nuestros procesos empresariales. Entender ese tipo de procesos no es simplemente el fruto de un proceso de reflexión o de aprendizaje individual: requiere la fe necesaria para trasformar las compañías y sus procesos de negocio – que en muchas ocasiones no mostraban signos especialmente preocupantes de ningún tipo de problema – para adaptarlos a las posibilidades que ofrece el machine learning. Las resistencias serán importantes, y van a requerir no solo argumentos, sino la capacidad de rodearse de personas que entiendan ese cambio, que crean en él, y que estén dispuestos a invertir en el proselitismo necesario para convencer a otros. Decididamente, no una tarea sencilla.

 

¿Sustituirán las máquinas a los abogados? - Abogacía EspañolaLa revista del Consejo General de la Abogacía, Abogacía Española, me pidió un artículo para su nº 108, que han titulado “¿Sustituirán las máquinas a los abogados?” (pdf), y en el que precisamente intenté analizar por qué razones el análisis de la posible sustitución de una tarea desarrollada por personas mediante una desarrollada por máquinas es, a mi juicio, erróneo.

La abogacía, como la gran mayoría de las profesiones relacionadas con la justicia, tiene un inherente componente humano que, en el estado actual del desarrollo tecnológico, sería sin duda imprudente negar o relegar al ámbito de la automatización. El desarrollo del machine learning incide precisamente en eso, en una visión de las máquinas que tiende a alejarse de la perspectiva clásica de la automatización, “máquina que ejecuta de manera repetitiva las órdenes que le hemos codificado en forma de variables, condicionales y bucles”, y se aproxima más a la idea de “máquina capaz de aprender y derivar esas reglas a partir del aprendizaje que es capaz de derivar a partir de un conjunto de datos”.

Sin embargo, que las máquinas puedan llevar a cabo tareas cada vez más sofisticadas y reservadas antes para los humanos no implica necesariamente un rumbo de colisión, dado que las tareas desarrolladas por humanos están muy lejos de mantenerse y perpetuarse de manera estática en el tiempo: el trabajo de un abogado, como ocurre con una gran cantidad de profesiones de otros tipos, está muy lejos de parecerse al que desarrollaba un abogado hace algunas décadas: utiliza otro tipo de medios, otros protocolos, requiere otras habilidades, y se apoya en tecnologías y herramientas de una manera sensiblemente diferente. Si un abogado de hace algunas décadas viese hoy trabajar a uno actual, una buena parte de su trabajo le parecería poco menos que ciencia-ficción. Dentro de algunas décadas, el paralelismo se repetirá, y los abogados utilizarán medios, protocolos, habilidades, tecnologías y herramientas que hoy nos parecerían ciencia-ficción, pero que serán las que definan la tarea de un abogado en ese momento.

Las máquinas solo sustituyen al que se niega a avanzar. En la justicia, veremos sin duda crecer la cantidad de casos que son juzgados mediante justicia algorítmica, mediante máquinas que, tras consultar la jurisprudencia, deciden qué casos son homologables a cuáles, toman en cuenta circunstancias de todo tipo que puedan afectar, y emiten un veredicto que, lógicamente, podrá ser sometido a apelación. Un avance que, en virtud del colapso de una buena parte de la administración de justicia, resulta cada día más acuciante y necesario, pero que no podremos considerar una sustitución de abogados por máquinas más allá del hecho de que la instrucción de una inmensa mayoría de esos casos hace mucho tiempo que no debería consumir horas de trabajo de personas, sino de máquinas. Dedicar horas de un profesional a casos tan mecánicos que podrían ser analizados por un simple conjunto de algoritmos es admitir que, en la práctica, ese profesional se está dedicando a tareas puramente administrativas, repetitivas y banales.

Pero más allá de la justicia algorítmica, tendremos otras connotaciones, Desarrollaremos asistentes capaces de llevar a cabo análisis predictivos de una buena parte de los elementos de la naturaleza humana, de recomendar actuaciones en función de determinadas circunstancias, de negociar en función de unos protocolos determinados, o de aliviar una buena parte del trabajo que hoy consideramos, en general, como la peor parte de lo que un abogado hace a lo largo de su día a día, todas esas tareas que, en realidad, enriquecen más bien poco y son consideradas aburridas o penosas. La máquina, en realidad, no quita el trabajo al (buen) profesional, sino que lo libera para llevar a cabo tareas de mayor valor añadido. Así ha sido desde los inicios de la revolución industrial, y existen pocas razones para pensar que no siga siendo así.

Esto implica, lógicamente, un reajuste de las capacidades y habilidades de un abogado. El abogado del futuro hablará con máquinas con la misma soltura con la que habla con personas, y eso no vendrá dado por sus habilidades para programar, porque la misma tarea de programación se habrá convertido, a ese nivel, en algo muy similar a lo que hacemos cuando hablamos con personas. En ese entorno, el abogado seguirá teniendo su papel, sus responsabilidades y su trabajo, aunque su día a día nos parezca alejado de lo que hoy conocemos. Pero seguirá ahí, como seguirán las causas que lo hacen imprescindible. La dialéctica de la sustitución es errónea, y además, dañina por lo que tiende a conllevar de resistencia al cambio. Resistencias que, aunque inútiles a medio plazo dado lo inexorable del cambio, sí pueden retrasarlo e influir en el ritmo del progreso, en la adaptación de los profesionales o en las perspectivas de competitividad de los actores implicados. Negar el cambio implica hacerse enemigo de él, con todo lo que ello conlleva. No, la máquina no sustituirá al abogado, pero los abogados que sepan utilizar máquinas sustituirán a los que no sepan. Eso sí que podemos tomarlo como seguro.

 

Google cumple 20 años - Cinco Días

Marimar Jiménez, de Cinco Días, me pidió algunas ideas sobre la perspectiva de una Google con veinte años y lo que podría estar apuntando a definir sus próximos veinte, y ha incluido algunos de mis comentarios en un artículo que ha titulado “Google cumple 20 años… Cómo será el ‘rey de internet’ cuando alcance los 40” (pdf), en el que también ha pulsado la opinión de prominentes ex-Googlers del panorama español como Bernardo Hernández o Javier Rodríguez Zapatero.

Mi opinión la expresé de manera enfática con una frase clara: “El presente y futuro de Google se estructura claramente en torno a tres conceptos: machine learning, machine learning y machine learning“. El concepto es tan importante en este momento para el futuro de la compañía, que no ha dudado en formar a todo su personal en ello, en redefinir todos sus productos y servicios en torno a ello, y en establecer que la ventaja competitiva del futuro se basará en que sus algoritmos sean mejores que los de su competencia. No sé si dentro de veinte años, porque en internet es más válido que nunca eso de que las predicciones a veinte años no son nada, pero en el futuro previsible, el machine learning marcará todo lo que Google sea o deje de ser.

A continuación, el texto que envié a Marimar sobre el tema:

El presente y el futuro de Google – en realidad, de Alphabet – se estructura claramente en torno a tres conceptos: machine learningmachine learning y machine learning. En este momento, y desde hace varios años, es sin duda el concepto central, el hilo conductor del rediseño de todos los productos y servicios de la compañía. Una de cada diez palabras en la comunicación de la compañía tienen relación con ese concepto. La compañía ha formado a todo su personal, del primero al último, en machine learning, porque fía todo su futuro a su potencial diferenciador, a la posibilidad de que sus productos y servicios sean capaces de aprender más rápido que los de sus competidores.

¿Qué cabe esperar en los próximos veinte años de una compañía que hace hoy una apuesta tan clara y definida? Lógicamente, que todos sus productos y servicios se reestructuren en torno al machine learning, y por tanto, que su eje fundamental pase a ser la adaptación al usuario y a sus necesidades. El asistente es una muestra clara con una progresión notable en ese sentido, pero el potencial de otros productos y servicios de la compañía en ese sentido es brutal: nadie sabe qué líneas nuevas puede desplegar Alphabet como holding de compañías en un plazo tan largo como veinte años, pero simplemente con algunas de ellas ya es como para soñar: la posibilidad de redefinir el transporte de personas mediante Waymo, la de ser capaz de protagonizar la transición a un cuidado de la salud preventivo a través de Calico y Verily, o la de replantear la ciberseguridad mediante Chronicle, por citar únicamente algunas de las compañías de un portfolio en el que, lógicamente, destaca también el potencial de la subsidiaria específica dedicada al machine learning, Deep Mind.

En resumen: en veinte años, creo que Alphabet será un gran conglomerado empresarial que proporcionará productos y servicios adaptados a las necesidades del usuario gracias a las posibilidades que le ofrezca el machine learning.

 

John HancockJohn Hancock, una de las aseguradoras más grandes y más antiguas de los Estados Unidos, adquirida en 2004 por la canadiense Manulife, ha anunciado que dejará de vender seguros de vida tradicionales y comercializará únicamente pólizas interactivas que registren las actividades de ejercicio y los datos de salud de sus clientes mediante wearables como Fitbit o Apple Watch. La compañía pasará a vender únicamente este tipo de pólizas a través de su subsidiaria Vitality, y finalizará en 2019 la conversión de toda su cartera de pólizas a la nueva metodología.

Este tipo de pólizas están popularizándose progresivamente en mercados como Sudáfrica, Reino Unido y los Estados Unidos, y son vendidas como una ventaja tanto para los usuarios, que tienen así un incentivo adicional para llevar una vida más saludable, como para las aseguradoras, que consiguen una cartera de clientes con hábitos más saludables que tiende a vivir más tiempo y a generar menos indemnizaciones. Sus detractores alegan, en cambio, que la aseguradora puede tratar de optimizar su cartera basándose en los datos obtenidos, tratando de ofrecer condiciones menos atractivas a aquellos que presenten unas variables indicadoras de un riesgo más elevado.

A medida que la tecnología mejora la capacidad de los dispositivos para registrar datos relacionados con el ejercicio y la salud, son más las compañías que se dan cuenta de la oportunidad que este nuevo enfoque puede suponer. Como ya he comentado en entradas anteriores, centrar las críticas en la supuesta falta de precisión de estos dispositivos es absurdo: primero, porque este tipo de variables mejoran rápidamente como lo hacen prácticamente todas las relacionadas con este ámbito, y segundo, porque la ausencia de unas métricas de nivel clínico se compensa con una riqueza de datos espectacular, que llegan en el caso de un wearable incluso al registro prácticamente continuo, frente a la inconveniencia de los dispositivos dedicados. Es evidente que un electrocardiógrafo con sus doce electrodos tiene una capacidad de registro que un reloj en el que simplemente apoyamos dos dedos no tiene, pero la posibilidad de registrar el pulso durante todo el día y unido a diferentes actividades le da unas posibilidades que el electrocardiógrafo, que se limita a una medida puntual, no tiene. Ridiculizar el impacto de este tipo de dispositivos, descartarlos porque pueden dar lugar a falsas alarmas o no darse cuenta del papel que van a jugar como generadores de datos en el cuidado de la salud en el futuro es, sencillamente, no entender nada de estadística ni de hábitos de vida: la única forma de pasar de un enfoque de salud paliativo a uno preventivo es incrementando el volumen de datos generado y alimentando con ellos algoritmos capaces de interpretarlos de manera automatizada.

En ese sentido, vale la pena leer esta respuesta de un cardiólogo en Quora: lo bueno del Apple Watch, además del hecho de que tanto la American Heart Association como la FDA recomienden o aprueben el producto y su funcionalidad, es el hecho de que lo llevamos puesto todo el día, lo que permite que muchas personas que no son conscientes de posibles problemas cardíacos o que no son capaces de evaluar su sintomatología por carecer de experiencia puedan recibir alertas que les permitan llevar a cabo un control médico sobre dolencias potencialmente muy peligrosas. A medida que llegan las reviews mayoritariamente positivas del nuevo Apple Watch 4, más se refuerza la idea de un futuro en el que este tipo de dispositivos jueguen un papel importante en el futuro del cuidado de la salud, tanto a nivel clínico o de investigación, como de aseguradoras. Y Apple, obviamente, no está sola en este campo: Fitbit ha adoptado ese enfoque transformacional desde hace ya bastante tiempo, y están lanzando ya servicios relacionados con ello. Otras, como Nest, propiedad de Alphabet, han llevado recientemente a cabo adquisiciones como la de Senosis, una spinoff de la Universidad de Washington dedicada al desarrollo de sistemas de monitorización de salud mediante el smartphone, y dejan claras las intenciones de su compañía matriz y de otras de su mismo nivel en cuestiones como la custodia de los datos y registros médicos. Recientemente, Apple presentó una API para que los desarrolladores de aplicaciones puedan trabajar con los datos almacenados en su aplicación de salud, con el fin de permitir que los usuarios puedan, con el nivel de control adecuado, compartir esos datos con distintos proveedores de salud: médicos, hospitales, etc. para recibir desde recordatorios para mejorar la adherencia a tratamientos, hasta la gestión administrativa de servicios.

La evolución de la tecnología la ha llevado ya al punto de poder generar una disrupción radical en el cuidado de la salud, y esa disrupción va a generar, como todas, un escenario con vencedores y vencidos. Entender las variables de esa disrupción y no aferrarse a visiones anticuadas o a tópicos absurdos va a resultar fundamental de cara al futuro.