IMAGE: John Phelan (CC BY)El MIT anuncia la creación de un nuevo centro, el Stephen A. Schwarzman College of Computing, dedicado a reorientar la institución para llevar el poder de la computación y la inteligencia artificial a todos los campos de estudio, posibilitando que el futuro de la computación y la inteligencia artificial se forme a partir de ideas de todas las otras disciplinas. La idea es utilizar la AI, el machine learning y la ciencia de datos con otras disciplinas académicas para “educar a los profesionales bilingües del futuro”, entendiendo como bilingües a personas en campos como la biología, la química, la política, la historia o la lingüística que también tienen experiencia en las técnicas de computación moderna que pueden ser aplicadas a ellos.

El centro se crea con un presupuesto de mil millones de dólares tras la aportación de $350 millones de la persona que le da nombre, Stephen A. Schwarzman, CEO de The Blackstone Group, la  trigésima cuarta persona más rica del mundo según el ranking de Forbes, y convierte a la institución en la que más claramente identifica el potencial futuro de una disciplina llamada a cambiar completamente el mundo tal y como lo conocemos. La idea de establecer el centro como una estructura propia y con un carácter fuertemente multidisciplinar refuerza la frase que llevo utilizando bastante tiempo tras leerla en un muy recomendable artículo de Erik Brynjolfsson y Andrew McAfee titulado The business of Artificial Intelligence, y que afirma que 

… durante la próxima década, la IA no reemplazará a los directivos, pero los directivos que utilizan la IA reemplazarán a los que no lo hacen”

El planteamiento de un centro multidisciplinar completamente independiente abre este planteamiento más allá del management, y afirma que un proceso similar, el desplazamiento de los profesionales tradicionales a manos de aquellos que saben utilizar herramientas como la AI, el machine learning o la ciencia de datos, ocurrirá en prácticamente todas las disciplinas. Un proceso de este tipo lo podemos ver ya en campos tan diferentes como el ya citado management, en el que compañías de todo el mundo adquieren herramientas analíticas para llevar a cabo la predicción y la automatización inteligente de procesos a partir de sistemas que aprenden de los datos, o las ciencias de la salud, en las que los profesionales se preguntan qué van a hacer cuando una buena parte de su trabajo, como los diagnósticos, sean llevados a cabo por herramientas algorítmicas.

La semana pasada, Google presentó estudios que demuestran que sus algoritmos de análisis de imagen son capaces ya de identificar tumores en cánceres de mama con un 99% de precisión. Otros estudios publicados en journals de prestigio afirman que pruebas diagnósticas como los ecocardiogramas pueden ya ser interpretados de manera completamente automática. El pasado año, cuando en el evento de innovación de Netexplo en París me pidieron que presentase a uno de los ganadores, la compañía india de diagnóstico de imagen médica Qure.ai, mi conversación con una de sus fundadoras en el escenario trató de explorar precisamente el aspecto de la supuesta sustitución: ¿cómo se sentían los radiólogos cuando, tras haber cedido sus archivos de imágenes a la compañía para que adiestrase su algoritmo, veían que este era capaz de diagnosticar tumores con mayor precisión que los propios facultativos? La respuesta fue clara: tras un breve período de adaptación, los profesionales de la medicina decidían que estaban mejor dejando que fuese el algoritmo el que llevase a cabo ese trabajo – algunos diagnósticos suponen, en ocasiones, examinar decenas o cientos de imágenes muy parecidas – y decidían dedicar su tiempo a otras tareas que consideraban más productivas. De hecho, algunos manifestaron que en la próxima generación de médicos, la habilidad de tomar una radiografía, mirarla y aventurar un diagnóstico sobre ella se perdería completamente, y sería vista como algo peligroso que los médicos hacían en la antigüedad. De nuevo, la misma respuesta: en los hospitales de todo el mundo, los algoritmos no sustituirán a los radiólogos, a los mamografistas ni a los ecocardiografistas… pero los profesionales que sepan utilizar inteligencia artificial y machine learning en sus diagnósticos sustituirán a los que no lo hacen, que incluso pasarán a ser vistos como un mayor riesgo para los pacientes.

El MIT no ha sido la única institución académica en entenderlo así, pero sí ha sabido ser la primera y la más visible a la hora de embarcarse en una iniciativa tan profundamente ambiciosa sobre el tema: en IE University llevamos muchos años haciendo que los profesores de nuestros programas más especializados en analítica y ciencia de datos se conviertan en una fuente de cursos para otros programas generalistas en disciplinas completamente diferentes, planteando grados con doble titulación que solapan ambas disciplinas, e introduciendo las humanidades como una parte fundamental del curriculum en todos los grados, como una manera de reflejar esa misma preocupación e intentar dar forma a los profesionales del futuro.

Tratemos de plantearlo así: en cada profesión, la inteligencia artificial y el machine learning encontrarán aplicaciones que, al cabo de un cierto tiempo, mejorarán las prestaciones de los humanos llevando a cabo esas mismas tareas. Para educar a esos nuevos profesionales, será fundamental que entiendan el funcionamiento de los algoritmos de inteligencia artificial y machine learning que utilizan, no solo para evitar un posible mal funcionamiento como el de ese algoritmo que, en Amazon, decidió dejar de contratar mujeres basándose en los datos históricos de la compañía, sino también para poder idear y diseñar nuevos procesos de innovación que apliquen la potencia de esos nuevos desarrollos tecnológicos y de otros aún más potentes que surgirán en el futuro.

El paradigma de la sustitución es, de por sí, autolimitante y peligroso. Nadie en su sano juicio entendería que insistiésemos en que le diagnosticase un médico humano en lugar de un algoritmo capaz de hacerlo con mucha más precisión, del mismo modo que muy pronto, nadie entenderá que pretendamos conducir nuestros automóviles sabiendo como sabemos que somos la fuente de la inmensa mayoría de los accidentes, cuando existen algoritmos capaces de hacerlo muchísimo mejor y de manera infinitamente más segura. Tratar de preservar empleos a costa de hacer mejor las cosas es una estrategia perdedora.

 

Los datos y la fe - LUCAMi segunda colaboración para el blog corporativo de LUCA, la unidad de Big Data e Inteligencia Artificial de Telefonica (aquí la primera) se titula “Los datos y la fe” (pdf), e intenta ahondar en el concepto de revolución frente a evolución que supone el machine learning y la idea de tratar a una máquina que se encuentra introducida en nuestra rutina diaria desde hace décadas, el ordenador, no tanto como una simple automatización de tareas, sino como algo capaz de captar datos y derivar sus propias reglas de funcionamiento a partir de ellos. 

Lograr extraer una ventaja competitiva de una revolución como el machine learning, con efectos comparables a lo que en su momento supuso el desarrollo y adopción masiva de internet, requiere por un lado directivos con el perfil adecuado convencidos del papel de la ciencia en el management de las compañías – un aspecto en el que incidí en mi primer artículo de la serie – y, por otro, de un convencimiento pleno de la necesidad de dotar a esas compañías de una cultura de datos que permita reorientar la totalidad de los productos y servicios de la compañía hacia ellos, como anteriormente lo hicimos con respecto a internet. Las mismas compañías que en los años ’90 creían que internet no supondría un cambio en su forma de hacer las cosas están ahora, un par de décadas después, completamente orientadas a la red, o si no llevaron a cabo ese cambio de mentalidad, muy probablemente hayan desaparecido. Ahora, las compañías deben tomar la decisión de formar a la totalidad de su personal en una tecnología que va a suponer un cambio fortísimo en la manera de entender el mundo en las próximas décadas, la que marcará la próxima gran discontinuidad entre los que la entienden y la saben aplicar y los que no.

Estamos aún, obviamente, en fases experimentales. Aún veremos en muchas ocasiones algoritmos capaces de aprender de los datos de maneras erróneas, de heredar sesgos o de crearlos en función de patrones que no sabíamos que estaban ahí. Si históricamente hemos incorporado menos mujeres que hombres a nuestras compañías, es posible que un algoritmo diseñado para optimizar procesos de reclutamiento alimentado con nuestro histórico de datos tienda, sin la supervisión adecuada, a discriminar a las mujeres en esos procesos, con todo lo que ello podría conllevar de pérdida de oportunidades para la atracción de talento. La adopción tecnológica tiene este comportamiento que requiere de procesos de ensayo y error, del desarrollo de una cultura que posibilite entender los mecanismos que conforman el aprendizaje de una máquina, la generación de algoritmos a partir de los datos, mediante procesos relativamente toscos al principio, pero que pueden evolucionar hasta mostrar patrones intrínsecamente superiores a los exhibidos por los tomadores de decisiones humanos.

No hablamos simplemente de hacer o plantear Machine Learning: hablamos de automatizarlo, de convertirlo en una parte integrante de nuestros procesos empresariales. Entender ese tipo de procesos no es simplemente el fruto de un proceso de reflexión o de aprendizaje individual: requiere la fe necesaria para trasformar las compañías y sus procesos de negocio – que en muchas ocasiones no mostraban signos especialmente preocupantes de ningún tipo de problema – para adaptarlos a las posibilidades que ofrece el machine learning. Las resistencias serán importantes, y van a requerir no solo argumentos, sino la capacidad de rodearse de personas que entiendan ese cambio, que crean en él, y que estén dispuestos a invertir en el proselitismo necesario para convencer a otros. Decididamente, no una tarea sencilla.

 

¿Sustituirán las máquinas a los abogados? - Abogacía EspañolaLa revista del Consejo General de la Abogacía, Abogacía Española, me pidió un artículo para su nº 108, que han titulado “¿Sustituirán las máquinas a los abogados?” (pdf), y en el que precisamente intenté analizar por qué razones el análisis de la posible sustitución de una tarea desarrollada por personas mediante una desarrollada por máquinas es, a mi juicio, erróneo.

La abogacía, como la gran mayoría de las profesiones relacionadas con la justicia, tiene un inherente componente humano que, en el estado actual del desarrollo tecnológico, sería sin duda imprudente negar o relegar al ámbito de la automatización. El desarrollo del machine learning incide precisamente en eso, en una visión de las máquinas que tiende a alejarse de la perspectiva clásica de la automatización, “máquina que ejecuta de manera repetitiva las órdenes que le hemos codificado en forma de variables, condicionales y bucles”, y se aproxima más a la idea de “máquina capaz de aprender y derivar esas reglas a partir del aprendizaje que es capaz de derivar a partir de un conjunto de datos”.

Sin embargo, que las máquinas puedan llevar a cabo tareas cada vez más sofisticadas y reservadas antes para los humanos no implica necesariamente un rumbo de colisión, dado que las tareas desarrolladas por humanos están muy lejos de mantenerse y perpetuarse de manera estática en el tiempo: el trabajo de un abogado, como ocurre con una gran cantidad de profesiones de otros tipos, está muy lejos de parecerse al que desarrollaba un abogado hace algunas décadas: utiliza otro tipo de medios, otros protocolos, requiere otras habilidades, y se apoya en tecnologías y herramientas de una manera sensiblemente diferente. Si un abogado de hace algunas décadas viese hoy trabajar a uno actual, una buena parte de su trabajo le parecería poco menos que ciencia-ficción. Dentro de algunas décadas, el paralelismo se repetirá, y los abogados utilizarán medios, protocolos, habilidades, tecnologías y herramientas que hoy nos parecerían ciencia-ficción, pero que serán las que definan la tarea de un abogado en ese momento.

Las máquinas solo sustituyen al que se niega a avanzar. En la justicia, veremos sin duda crecer la cantidad de casos que son juzgados mediante justicia algorítmica, mediante máquinas que, tras consultar la jurisprudencia, deciden qué casos son homologables a cuáles, toman en cuenta circunstancias de todo tipo que puedan afectar, y emiten un veredicto que, lógicamente, podrá ser sometido a apelación. Un avance que, en virtud del colapso de una buena parte de la administración de justicia, resulta cada día más acuciante y necesario, pero que no podremos considerar una sustitución de abogados por máquinas más allá del hecho de que la instrucción de una inmensa mayoría de esos casos hace mucho tiempo que no debería consumir horas de trabajo de personas, sino de máquinas. Dedicar horas de un profesional a casos tan mecánicos que podrían ser analizados por un simple conjunto de algoritmos es admitir que, en la práctica, ese profesional se está dedicando a tareas puramente administrativas, repetitivas y banales.

Pero más allá de la justicia algorítmica, tendremos otras connotaciones, Desarrollaremos asistentes capaces de llevar a cabo análisis predictivos de una buena parte de los elementos de la naturaleza humana, de recomendar actuaciones en función de determinadas circunstancias, de negociar en función de unos protocolos determinados, o de aliviar una buena parte del trabajo que hoy consideramos, en general, como la peor parte de lo que un abogado hace a lo largo de su día a día, todas esas tareas que, en realidad, enriquecen más bien poco y son consideradas aburridas o penosas. La máquina, en realidad, no quita el trabajo al (buen) profesional, sino que lo libera para llevar a cabo tareas de mayor valor añadido. Así ha sido desde los inicios de la revolución industrial, y existen pocas razones para pensar que no siga siendo así.

Esto implica, lógicamente, un reajuste de las capacidades y habilidades de un abogado. El abogado del futuro hablará con máquinas con la misma soltura con la que habla con personas, y eso no vendrá dado por sus habilidades para programar, porque la misma tarea de programación se habrá convertido, a ese nivel, en algo muy similar a lo que hacemos cuando hablamos con personas. En ese entorno, el abogado seguirá teniendo su papel, sus responsabilidades y su trabajo, aunque su día a día nos parezca alejado de lo que hoy conocemos. Pero seguirá ahí, como seguirán las causas que lo hacen imprescindible. La dialéctica de la sustitución es errónea, y además, dañina por lo que tiende a conllevar de resistencia al cambio. Resistencias que, aunque inútiles a medio plazo dado lo inexorable del cambio, sí pueden retrasarlo e influir en el ritmo del progreso, en la adaptación de los profesionales o en las perspectivas de competitividad de los actores implicados. Negar el cambio implica hacerse enemigo de él, con todo lo que ello conlleva. No, la máquina no sustituirá al abogado, pero los abogados que sepan utilizar máquinas sustituirán a los que no sepan. Eso sí que podemos tomarlo como seguro.

 

El directivo analitico - LUCADesde LUCA, la unidad de Big Data e Inteligencia Artificial de Telefonica, me pidieron un artículo para su blog corporativo sobre los nuevos entornos que precisan, cada vez más, tomar decisiones inteligentes a partir de los datos, y la importancia del análisis de esos datos de cara al desarrollo de un nuevo perfil de directivo. Una tendencia creciente en las compañías modernas que se encuadra en desmitificar el llamado gut feeling, esa supuesta “intuición” de los directivos que, cada día más, prueba que por cada una de esas decisiones acertadas hay, en realidad, un número similar o en ocasiones mayor de decisiones erróneas en contextos similares. 

Mi artículo, titulado “El directivo analítico” (pdf), trata de exponer cómo la llegada del machine learning y la analítica avanzada de datos al mundo directivo nos acerca cada vez más a entornos con un mayor nivel de profesionalización, más científicos y menos dados a sacralizar “la experiencia por la experiencia”, en beneficio de unas herramientas analíticas adecuadas y de unos procedimientos más rigurosos. El management, como ocurre en todas las disciplinas, está destinado a ser cada vez menos “magia” y más ciencia. Para las compañías, entender el funcionamiento de los proyectos de machine learning, sus requerimientos y los pasos que hay que dar para poder alimentar los algoritmos adecuados con datos resulta cada vez más importante – sí, todos los directivos piensan que “tienen muchísimos datos” y que “todos ellos pueden ser utilizados inmediatamente”, pero la realidad es otra muy diferente y mucho más compleja. Sabes qué podemos pedir a un algoritmo, qué posibilidades reales tiene de generar resultados tangibles y qué tiempos de desarrollo cabe esperar en un proyecto de este tipo es cada día más importante para las compañías.

A lo largo de la próxima década, como bien comentan Erik Brynjolfsson y Andrew McAfee en ese gran artículo titulado The business of artificial intelligence, la inteligencia artificial va a cambiar la forma de entender el management hasta el punto de que “aunque la inteligencia artificial no sustituya a los directivos, los directivos que utilicen inteligencia artificial sí sustituyan a los que no lo hacen.” Si como directivo sigues viendo el desarrollo de machine learning e inteligencia artificial desde lejos, como quien ve una película de ciencia-ficción, deberías saber que lo que haces, sea lo que sea, será en algún momento mejorado por otros directivos que sí han aprendido a aprovechar sus posibilidades. Entender el funcionamiento de este tipo de proyectos, su dimensionamiento, sus diferentes fases y lo que se les puede pedir de manera realista se está convirtiendo, tanto a nivel corporativo como personal, en una necesidad cada vez más acuciante. 

 

Anuario Comunicacion DircomDesde la Asociación de Directivos de Comunicación, Dircom, me pidieron una colaboración para su informe titulado “El estado de la comunicación en España 2018“, concretamente centrado en los retos de la tecnología en la gestión empresarial. 

El resultado es este “Futuro, tecnología y actitudes” en el que hablo sobre la necesidad de los directivos del futuro de ser personas “adictas al cambio”, con una actitud de exploración constante necesaria en un entorno que se mueve a una gran velocidad y en el que la inercia o el apego a la tradición en los negocios pasa directamente a ser un estorbo. Menciono machine learning, enernet, la realidad virtual y aumentada, y la cadena de bloques como exponentes de tecnologías que, sin duda, van a provocar cambios fortísimos en la operativa y el planteamiento de muchos negocios y que, a pesar de su popularidad y de la cantidad de artículos que generan, siguen apareciendo como carencias en la inmensa mayoría de los cuadros directivos, como su de alguna manera no se sintiesen presionados por estar al día, por entender las dinámicas que sin duda van a afectar a los negocios en su industria.

A continuación, el texto completo del artículo:

Futuro, tecnología y actitudes

El reto más importante del management de cara al futuro es entender la propia esencia de la innovación tecnológica y su velocidad de adopción. Como bien dijo el escritor de ciencia-ficción canadiense William Gibson, “el futuro ya está aquí, pero está desigualmente distribuido”: aquellas compañías que ignoren la innovación o se comporten como rezagados en su adopción, pasarán a ser consideradas como anticuadas o desfasadas, y serán desplazadas por otras capaces de ofrecer a los usuarios soluciones más adaptadas a los tiempos.

Y por supuesto, en la ecuación de la adopción tecnológica, la tecnología como tal es tan solo un componente. El otro, y posiblemente más importante porque no puede ser adquirido o incorporado fácilmente, son las personas. Las organizaciones del futuro son, por tanto, aquellas conformadas por directivos capaces de acomodar cambios a gran velocidad, de no acomodarse en una tecnología concreta y seguir sublimándola para todo hasta que no dé más de si. Los directivos del futuro deben ser personas “adictas al cambio”, deseosas de encontrar nuevas soluciones tecnológicas para probarlas y entender sus posibles contribuciones al negocio. Si no eres capaz de incorporar esa curiosidad, ese dinamismo y esa capacidad de adaptación a tu curriculum, piensa que posiblemente no sea mal momento para, si puedes, retirarte: el progreso te ha pasado por encima.

La tarea de intentar entender una sociedad en la que las máquinas son capaces de aprender a partir de datos de todo tipo, y de llevar a cabo tareas sin necesidad de programarlas como si fueran autómatas, exige un cambio de percepción fundamental: entender que un ordenador ya no es una máquina que programamos para hacer tareas repetitivas o pesadas con más velocidad y menos errores, sino que puede ser capaz de aprender a hacer cosas, de desarrollar soluciones creativas que un humano no había visto o entendido anteriormente. Las máquinas ya pueden hablar como las personas, aislar palabras y frases para entender lo que les dicen y contestarlo adecuadamente, estudiar operaciones para detectar patrones de fraude o necesidades concretas, hacer predicciones o controlar parámetros en función de circunstancias. Pueden conducir mucho mejor que las personas – y lo están haciendo ya, sin conductor de seguridad, en varios lugares del mundo – o desempeñar todo tipo de trabajos no solo mecánicos, sino intelectuales, como optimizar fondos de inversión o inversiones en publicidad. De hecho, el mayor crecimiento tanto en inversión como en publicidad se debe, desde hace varios años, a esas actividades llevadas a cabo mediante algoritmos.

Pero si el machine learning nos plantea un futuro retador… ¿qué decir de un mundo en el que la energía se produzca de manera prácticamente gratuita o con un coste mínimo en instalaciones distribuidas – enernet, siguiendo el paralelismo de lo que supuso internet y la distribución de la computación? En Australia, la mayor central eléctrica estará formada por placas y tejas solares en techos de viviendas, unidas a baterías domésticas de alta capacidad.

La realidad virtual y aumentada nos ofrece cada vez escenarios que permitirán todo tipo de actividades, desde trabajos independizados de lugar y tiempo, hasta posibilidades de todo tipo aplicadas al ocio, al entretenimiento o al aprendizaje. ¿Estamos poniéndolos a prueba en nuestra compañía para entender sus posibilidades, o nos limitamos a esperar a que sea otro el que lo haga, mientras nuestros obsoletos directivos lo contemplan con aire displicente y aire de “cualquier tiempo pasado fue mejor”?

Si blockchain, como todo indica, termina siendo la base de todos los sistemas transaccionales… ¿va nuestra empresa a ignorarlo, o va a intentar extraer de ello algún tipo de ventaja competitiva que podamos mostrar a nuestros clientes y usuarios?

El futuro no es una cuestión de tecnología. Es cuestión de curiosidad, de vocación por probarlo todo, de inquietud y de ganas de mejorar. El futuro es cuestión de actitud. Si tu empresa no es capaz de crear y alimentar esa actitud en sus directivos… se dirige hacia un problema de viabilidad futura de muy difícil solución. Y si no lo crees o no lo ves, lo más seguro es que, más que posible solución, seas parte del problema.