IMAGE: Max Pixel - CC0El gobernador del estado de California, Jerry Brown, ha aprobado una ley que, a partir de octubre de 2019, eliminará el pago de fianza en los tribunales, y recurrirá en su lugar a algoritmos que estimarán el riesgo de fuga o de cometer delitos adicionales en caso de ser puestos en libertad. El algoritmo, que los diferentes condados tendrán obligación de obtener bien a través de algún proveedor o mediante desarrollo propio, calificará ese riesgo como bajo, medio o elevado y, en función de la calificación obtenida, el juez decidirá poner al presunto delincuente en libertad o mantenerlo en custodia.

La eliminación de la fianza en forma de pago monetario se considera, como tal, un éxito para los defensores de los derechos civiles, que afirmaban que esa práctica era discriminatoria y daba lugar a una justicia diferente para ricos y pobres, en la que el hecho de no tener recursos económicos conllevaba una condena al paso por prisión que, en muchos casos, se convertía en parte del problema. En palabras de Brown,

“Today, California reforms its bail system so that rich and poor alike are treated fairly”

(“Hoy, California reforma su sistema de libertad bajo fianza para que tanto ricos como pobres reciban un trato justo”)

Sin embargo, la satisfacción de los defensores de los derechos civiles no es completa: no son pocos los temas, y particularmente aquellos relacionados con la justicia, en los que los algoritmos, alimentados con datos obtenidos del propio sistema de justicia, han mostrado sesgos que tienden a perjudicar a las personas en función de su raza o de su estatus socioeconómico. No hay nada que convierta a un algoritmo, por el hecho de serlo, en algo intrínsecamente neutral: de hecho, los algoritmos construyen sus sesgos a partir de los datos con los que son alimentados, lo que incrementa el riesgo de perpetuar sesgos que, en muchos casos, ya existían anteriormente.

Por otro lado, muchos algoritmos son definidos como propietarios para proteger la propiedad intelectual de las compañías que los desarrollan, lo que genera la aparición de cajas negras contra las que resulta difícil plantear una argumentación de defensa. Esta cuestión se puso ya de manifiesto con el uso de COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), un algoritmo desarrollado por Equivant para estimar el riesgo de reincidencia de los convictos y ayudar a los jueces a tomar decisiones sobre la extensión de sus penas. Una decisión tomada por ese algoritmo fue objeto de apelación en el caso Loomis v. Wisconsin, en el que el acusado alegó que el uso de dicho algoritmo en el cálculo de su sentencia, un veredicto de seis años de cárcel, violaba sus derechos porque evitaba que impugnase la validez científica y la precisión de la prueba al desconocer el funcionamiento del algoritmo, y porque éste tenía además en cuenta variables como el género y la raza del acusado.

La legislación aprobada por el estado de California establece un período de revisión para el funcionamiento del sistema algorítmico que culminará en 2023 tras cuatro años de funcionamiento y generación de datos, momento en el que se examinará el conjunto de decisiones tomadas mediante su uso y se tratarán de determinar los posibles efectos producidos. La llegada de los sistemas basados en algoritmos a los sistemas judiciales puede suponer un alivio importantísimo para la carga de trabajo de los tribunales, particularmente en la instrucción de muchos casos considerados habitualmente como rutinarios que podría ser realizada de manera razonablemente automatizada en sus primeras fases, con la adecuada supervisión. Sin embargo, todo indica que uno de los factores fundamentales debería ser la existencia de un requisito de transparencia que permitiese a todas las partes implicadas conocer de forma transparente el funcionamiento de esos algoritmos, las variables y los pesos empleados para la determinación de los resultados, además de asegurar que los datos utilizados para entrenar a esos algoritmos no contienen, como tales, factores que determinen la aparición de sesgos no justificados. Una tarea que no parece sencilla, pero cuyos resultados podrían ser importantísimos de cara a resolver el problema del colapso de la justicia, el protagonista de esa otra máxima que dice “justicia retrasada es justicia denegada“.

¿Cómo evolucionará el sistema aprobado por el estado de California? ¿Puede llegar a suponer una ventaja en términos de justicia y equidad con respecto al sistema anterior? ¿Qué discusiones vamos a mantener a partir del momento en que más y más algoritmos entran en nuestros sistemas judiciales?

 

El directivo analitico - LUCADesde LUCA, la unidad de Big Data e Inteligencia Artificial de Telefonica, me pidieron un artículo para su blog corporativo sobre los nuevos entornos que precisan, cada vez más, tomar decisiones inteligentes a partir de los datos, y la importancia del análisis de esos datos de cara al desarrollo de un nuevo perfil de directivo. Una tendencia creciente en las compañías modernas que se encuadra en desmitificar el llamado gut feeling, esa supuesta “intuición” de los directivos que, cada día más, prueba que por cada una de esas decisiones acertadas hay, en realidad, un número similar o en ocasiones mayor de decisiones erróneas en contextos similares. 

Mi artículo, titulado “El directivo analítico” (pdf), trata de exponer cómo la llegada del machine learning y la analítica avanzada de datos al mundo directivo nos acerca cada vez más a entornos con un mayor nivel de profesionalización, más científicos y menos dados a sacralizar “la experiencia por la experiencia”, en beneficio de unas herramientas analíticas adecuadas y de unos procedimientos más rigurosos. El management, como ocurre en todas las disciplinas, está destinado a ser cada vez menos “magia” y más ciencia. Para las compañías, entender el funcionamiento de los proyectos de machine learning, sus requerimientos y los pasos que hay que dar para poder alimentar los algoritmos adecuados con datos resulta cada vez más importante – sí, todos los directivos piensan que “tienen muchísimos datos” y que “todos ellos pueden ser utilizados inmediatamente”, pero la realidad es otra muy diferente y mucho más compleja. Sabes qué podemos pedir a un algoritmo, qué posibilidades reales tiene de generar resultados tangibles y qué tiempos de desarrollo cabe esperar en un proyecto de este tipo es cada día más importante para las compañías.

A lo largo de la próxima década, como bien comentan Erik Brynjolfsson y Andrew McAfee en ese gran artículo titulado The business of artificial intelligence, la inteligencia artificial va a cambiar la forma de entender el management hasta el punto de que “aunque la inteligencia artificial no sustituya a los directivos, los directivos que utilicen inteligencia artificial sí sustituyan a los que no lo hacen.” Si como directivo sigues viendo el desarrollo de machine learning e inteligencia artificial desde lejos, como quien ve una película de ciencia-ficción, deberías saber que lo que haces, sea lo que sea, será en algún momento mejorado por otros directivos que sí han aprendido a aprovechar sus posibilidades. Entender el funcionamiento de este tipo de proyectos, su dimensionamiento, sus diferentes fases y lo que se les puede pedir de manera realista se está convirtiendo, tanto a nivel corporativo como personal, en una necesidad cada vez más acuciante. 

 

IMAGE: Ahmed Gad - Pixabay (CC0)Una de las tareas más complejas para un profesor de innovación en nuestros días es lograr que sus alumnos visualicen las posibilidades de una tecnología determinada y logren proyectarlas hacia el futuro, para entender el tipo de innovaciones específicas a las que darán forma. Y sin duda, dentro de los desarrollos difíciles de explicar, tanto por su concepto como por sus infinitas posibilidades y aplicaciones, está el machine learning.

Para cualquier directivo, curiosamente, el primer problema importante para pensar en posibles proyectos de machine learning es ser capaz de definir los objetivos. Si bien podría parecer que definir objetivos es una tarea fácil, hacerlo de manera mínimamente realista o valorando las posibilidades de la herramienta resulta mucho más difícil si, como suele ser el caso, desconoces esa herramienta o te aproximas a ella con un montón de apreciaciones erróneas. Por eso me ha parecido interesante pensar en una entrada en la que describiese algunos de los recientes proyectos en los que se ha aplicado machine learning desde una óptica práctica, por si pueden servir de inspiración, o para entender algunos de los cambios que vamos a vivir en distintos aspectos de nuestras vidas en los próximos pocos años.

¿Qué elementos hacen falta para un proyecto de machine learning? Fundamentalmente, datos. Podríamos escribir mucho sobre las características de esos datos, la estructura que deben tener o su preparación, que, de hecho, suele representar el grueso del trabajo de este tipo de proyectos, pero dejaremos eso para una entrada posterior más detallada. Hoy vamos a hablar de ejemplos prácticos:

  • Eliminar entradas en redes sociales que promuevan el discurso del odio y la desinformación: un proyecto llevado a cabo por Facebook y definido como una prioridad absoluta trata de, en el contexto de Birmania, localizar posts que promuevan la violencia hacia la comunidad rohinyá. Una tarea enormemente difícil dada la versatilidad del lenguaje humano y las infinitas posibilidades que pueden utilizarse para promover el odio, pero en la que la compañía cuenta con un tesoro: miles de entradas anteriores en las que se puede demostrar un papel activo en la difusión de ese tipo de mensajes. A partir de ahí, simplemente para poder generar datos con los que alimentar al algoritmo, la compañía ha contratado a sesenta personas, con planes de llegar hasta un total de cien antes de final de año, expertas en los idiomas hablados en el país – en Birmania se hablan, además del idioma oficial, que hablan dos tercios de la población, aproximadamente cien idiomas – y les pide que etiqueten esas entradas en función de sus características. Según Mark Zuckerberg, el algoritmo tardará entre cinco y diez años en entregar resultados completamente fiables, pero cuando lo haga, tendrá una utilidad enorme para la red social, cuyo papel había sido fuertemente cuestionado en este escenario. Actualmente, Facebook calcula que el algoritmo es capaz de detectar el 52% de las entradas con potencial para contribuir a violencia o daño físico inminente, antes de que empiecen a ser reportadas proactivamente por los usuarios de la red social. 
  • De nuevo en Facebook, otra aplicación intrínseca a su actividad: reconocer fotografías en las que una persona aparece con los ojos cerrados, y ser capaz de mostrarlas con los ojos abiertos. Es un problema habitual en fotografías de grupo, y sin duda, si alguien cuenta con ejemplos de ese tipo, esa es Facebook: alguna de las personas aparece con los ojos cerrados. A partir de ahí, el algoritmo debe localizar más fotografías de esa persona, teniendo en cuenta el ángulo, la iluminación y otras características, y ser capaz de insertarlos en la fotografía original de manera que el resultado sea realista. Tarea para una Generative Adversarial Network (GAN), dos redes neuronales que compiten entre sí, una generando imágenes, y otra juzgando su nivel de realismo, utilizando las fotografías de la persona con los ojos abiertos como objetivo en términos de realismo.
  • Otra aplicación de Facebook, pero en este caso no relacionada con su actividad: conseguir que las resonancias magnéticas, pruebas diagnósticas que habitualmente son relativamente largas, puedan llevarse a cabo en pocos minutos, reduciendo así el nivel de estrés y la incomodidad para los pacientes y permitiendo que el material se amortice más rápido al incrementar el número de pruebas diagnósticas que pueden llevarse a cabo en una jornada. En este caso, hablamos de una aplicación no relacionada con la actividad de la compañía y que esta, de hecho, pretende liberar como código abierto, porque su interés es progresar en técnicas para el entrenamiento de algoritmos. ¿Donde está, en este caso, la clave? En conseguir los datos adecuados para ello. La compañía, por tanto, se alía con NYU, cuya clínica tiene un archivo de diez mil resonancias magnéticas convenientemente anonimizadas, y mediante deep learning, adiestra a un algoritmo para reconocer la disposición de los huesos, músculos, ligamentos y otros componentes del cuerpo humano. . Una vez que se construye este modelo, lo que la máquina tiene que hacer es reconocer las diferencias con la imagen real, de manera que reconozca cualquier anomalía.
  •  Google y la refrigeración de los centros de datos: hace algunos años, la refrigeración era uno de los principales centros de coste de todo centro de datos. En los más modernos, su impacto se ha reducido hasta un 10%, pero aún así, sigue representando un ahorro potencial importante. El problema es claro; obtener unas condiciones de temperatura y humedad adecuadas, tratando de combinar los recursos con los que se cuenta de una manera óptima, sea mediante la circulación de aire o agua exteriores, ventilación, aireación o, en último término, aire acondicionado. Para ello, se recurre al reinforcement learning, un algoritmo que permite ver qué acciones debe escoger un agente de software en un entorno dado con el fin de maximizar una función determinada, en este caso, el gasto en electricidad. Existe un nivel de supervisión humana que permite ver si las opciones tomadas por el algoritmo son excesivamente arriesgadas, pero en este momento, el algoritmo ya está obteniendo ahorros de en torno al 40%
  • De nuevo Google, en una aplicación de imagen médica similar a la anteriormente citada en el caso de Facebook: examinar imágenes oculares obtenidas mediante tomografía de coherencia óptica (OCT), con el fin de detectar posibles problemas. Los OCT no son pruebas complejas, son relativamente rápidas, pero el problema está en que, hasta el momento, tenían que ser analizadas por una persona, lo que introducía un importante elemento de colapso y una fuente de errores. La compañía forma un equipo con la clínica especializada británica Moorfields Eye Hospital, que analiza en torno a mil imágenes de este tipo cada día, y diseña un proceso en dos etapas: una red neuronal de segmentación, que convierte la exploración OCT en bruto en un mapa de tejidos tridimensionales con segmentos de color claramente definidos y detecta hasta cincuenta posibles enfermedades, entrenada con 877 imágenes segmentadas manualmente por oftalmólogos, y una segunda red de clasificación, que analiza el mapa tridimensional de tejidos  y toma decisiones diagnósticas sobre el tipo de enfermedad y la urgencia del tratamiento. Esta segunda red fue entrenada mediante 14,884 mapas de tejidos producidos por la red de segmentación, que fueron revisados por oftalmólogos y optometristas. El proceso resultante es ya capaz de mejorar la eficiencia en el diagnóstico de los equipos médicos humanos.
  • Otras aplicaciones de detección de cáncer: de nuevo, aplicaciones de caracterización de imágenes médicas desarrolladas por equipos de distintos lugares, capaces de reconocer ya con niveles de acierto muy razonables, cánceres de piel (95% de acierto frente al 87% de un equipo de 28 dermatólogos), de próstata, de cabeza y cuello, tumores colorrectales y de mama.
  • Detección de desastres naturales: Microsoft ha desarrollado una herramienta capaz de utilizar imágenes aéreas de alta definición y reconocer algorítmicamente en ellas objetos como canales, árboles, campos, caminos y edificios para, combinados con las lecturas de los sensores meteorológicos, poder predecir, planificar y llevar a cabo la preparación de cara a posibles inundaciones. A medida que los algoritmos van trabajando con mapas de más zonas, aprenden a reconocer más objetos  – árboles de diversos tipos, edificios, etc. – y su aplicación se hace más fiable.
  • Y mi favorito personal, por razones obvias: un algoritmo capaz de evaluar exámenes de tipo ensayo, que trabaja tanto en chino como en inglés, y que, para cada examen, es capaz de desarrollar una base de conocimiento para interpretar la lógica general y el significado de lo que el alumno pretende expresar, y que, en pruebas en 60,000 instituciones académicas con un total de 120 millones de alumnos, coincidió con las evaluaciones asignadas por los profesores en un 92% de los casos. Y además, mejora a media que evalúa más exámenes. ¿Qué podría hacer con mi tiempo si no tuviese que dedicarlo a evaluar exámenes, sin duda la parte de nuestro trabajo que más tiempo nos quita a los profesores y que más odiamos?

Simplemente, unas cuantas noticias recopiladas entre mayo, junio, julio y lo que llevamos de agosto. Una mínima muestra, pero intentando cubrir distintos aspectos y aplicaciones, y pensando en que podamos llegar a intuir algunas de las infinitas posibilidades de una tecnología en la que aún estamos rascando la superficie y que, sin duda, va a cambiar el mundo tal y como lo conocemos – de hecho, lo está cambiando ya.

 

Anuario Comunicacion DircomDesde la Asociación de Directivos de Comunicación, Dircom, me pidieron una colaboración para su informe titulado “El estado de la comunicación en España 2018“, concretamente centrado en los retos de la tecnología en la gestión empresarial. 

El resultado es este “Futuro, tecnología y actitudes” en el que hablo sobre la necesidad de los directivos del futuro de ser personas “adictas al cambio”, con una actitud de exploración constante necesaria en un entorno que se mueve a una gran velocidad y en el que la inercia o el apego a la tradición en los negocios pasa directamente a ser un estorbo. Menciono machine learning, enernet, la realidad virtual y aumentada, y la cadena de bloques como exponentes de tecnologías que, sin duda, van a provocar cambios fortísimos en la operativa y el planteamiento de muchos negocios y que, a pesar de su popularidad y de la cantidad de artículos que generan, siguen apareciendo como carencias en la inmensa mayoría de los cuadros directivos, como su de alguna manera no se sintiesen presionados por estar al día, por entender las dinámicas que sin duda van a afectar a los negocios en su industria.

A continuación, el texto completo del artículo:

Futuro, tecnología y actitudes

El reto más importante del management de cara al futuro es entender la propia esencia de la innovación tecnológica y su velocidad de adopción. Como bien dijo el escritor de ciencia-ficción canadiense William Gibson, “el futuro ya está aquí, pero está desigualmente distribuido”: aquellas compañías que ignoren la innovación o se comporten como rezagados en su adopción, pasarán a ser consideradas como anticuadas o desfasadas, y serán desplazadas por otras capaces de ofrecer a los usuarios soluciones más adaptadas a los tiempos.

Y por supuesto, en la ecuación de la adopción tecnológica, la tecnología como tal es tan solo un componente. El otro, y posiblemente más importante porque no puede ser adquirido o incorporado fácilmente, son las personas. Las organizaciones del futuro son, por tanto, aquellas conformadas por directivos capaces de acomodar cambios a gran velocidad, de no acomodarse en una tecnología concreta y seguir sublimándola para todo hasta que no dé más de si. Los directivos del futuro deben ser personas “adictas al cambio”, deseosas de encontrar nuevas soluciones tecnológicas para probarlas y entender sus posibles contribuciones al negocio. Si no eres capaz de incorporar esa curiosidad, ese dinamismo y esa capacidad de adaptación a tu curriculum, piensa que posiblemente no sea mal momento para, si puedes, retirarte: el progreso te ha pasado por encima.

La tarea de intentar entender una sociedad en la que las máquinas son capaces de aprender a partir de datos de todo tipo, y de llevar a cabo tareas sin necesidad de programarlas como si fueran autómatas, exige un cambio de percepción fundamental: entender que un ordenador ya no es una máquina que programamos para hacer tareas repetitivas o pesadas con más velocidad y menos errores, sino que puede ser capaz de aprender a hacer cosas, de desarrollar soluciones creativas que un humano no había visto o entendido anteriormente. Las máquinas ya pueden hablar como las personas, aislar palabras y frases para entender lo que les dicen y contestarlo adecuadamente, estudiar operaciones para detectar patrones de fraude o necesidades concretas, hacer predicciones o controlar parámetros en función de circunstancias. Pueden conducir mucho mejor que las personas – y lo están haciendo ya, sin conductor de seguridad, en varios lugares del mundo – o desempeñar todo tipo de trabajos no solo mecánicos, sino intelectuales, como optimizar fondos de inversión o inversiones en publicidad. De hecho, el mayor crecimiento tanto en inversión como en publicidad se debe, desde hace varios años, a esas actividades llevadas a cabo mediante algoritmos.

Pero si el machine learning nos plantea un futuro retador… ¿qué decir de un mundo en el que la energía se produzca de manera prácticamente gratuita o con un coste mínimo en instalaciones distribuidas – enernet, siguiendo el paralelismo de lo que supuso internet y la distribución de la computación? En Australia, la mayor central eléctrica estará formada por placas y tejas solares en techos de viviendas, unidas a baterías domésticas de alta capacidad.

La realidad virtual y aumentada nos ofrece cada vez escenarios que permitirán todo tipo de actividades, desde trabajos independizados de lugar y tiempo, hasta posibilidades de todo tipo aplicadas al ocio, al entretenimiento o al aprendizaje. ¿Estamos poniéndolos a prueba en nuestra compañía para entender sus posibilidades, o nos limitamos a esperar a que sea otro el que lo haga, mientras nuestros obsoletos directivos lo contemplan con aire displicente y aire de “cualquier tiempo pasado fue mejor”?

Si blockchain, como todo indica, termina siendo la base de todos los sistemas transaccionales… ¿va nuestra empresa a ignorarlo, o va a intentar extraer de ello algún tipo de ventaja competitiva que podamos mostrar a nuestros clientes y usuarios?

El futuro no es una cuestión de tecnología. Es cuestión de curiosidad, de vocación por probarlo todo, de inquietud y de ganas de mejorar. El futuro es cuestión de actitud. Si tu empresa no es capaz de crear y alimentar esa actitud en sus directivos… se dirige hacia un problema de viabilidad futura de muy difícil solución. Y si no lo crees o no lo ves, lo más seguro es que, más que posible solución, seas parte del problema.

 

IE InsightsUn pequeño vídeo de cinco minutos que hice hace algunas semanas para IE Insights, rodado en la WoW Room, y que me había olvidado de compartir. Hablo, en español con subtítulos en inglés, de la presión que suponen los nuevos entornos competitivos para las compañías, y de cómo plantearse la preparación de nuestra compañía a la hora de imaginar nuestra actividad en ellos, o de pensar hasta qué punto las compañías que marcan la vanguardia en tecnología podrían convertirse en una amenaza para nuestra actividad. La progresiva expansión del ámbito de actividad de las compañías tecnológicas, sean los clásicos gigantes o pequeñas y ágiles startups, es sin duda una preocupación creciente entre los directivos.

¿Cómo plantearse el nivel de preparación de una compañía ante el cambiante entorno tecnológico? La matriz de intensidad informativa (Porter y Millar, 1985), por ejemplo, resulta una herramienta muy interesante a la hora de plantear arquitecturas de datos para una compañía, en función de la cantidad de información que puede generarse a partir de su producto o servicio, y de la cantidad de información que se mueve a través de su cadena de valor. Del mismo modo, variables como el nivel de permiso (Godin, 1999), que evalúa las posibilidades que tenemos de procesar esa información en un entorno de respeto a nuestros usuarios y a la ley, intentando construir una propuesta de valor que nuestros clientes estén dispuestos a aceptar sin verla como una posible amenaza a su privacidad. Y, finalmente, el nivel de preparación para el desarrollo de arquitecturas analíticas de machine learning (Breck et al., 2017), en función de las habilidades que tenemos a nuestra disposición, y que podrían determinar necesidades de planes de contratación o de formación interna.

Una perspectiva rápida del tipo de ejercicios y análisis que las compañías pueden hacer a la hora de plantearse su continuidad y su futuro, o sus posibilidades de seguir haciendo lo que hacen en un entorno en el que los posibles competidores ya no son siempre los sospechosos habituales, sino que salen de debajo de las piedras y con todo tipo de formas y colores variados.