Liderando la movilidad urbana sostenible - ATUC 2016Ayer estuve en Bilbao, en el XXIII Congreso Nacional de Transporte Urbano y Metropolitano, hablando sobre las distintas tendencias que afectan a la movilidad urbana, cada vez más condicionada por factores como los índices elevados de contaminación, la congestión, las restricciones, y el agotamiento de un modelo, el del automóvil particular, que cada día se evidencia más como un grave error histórico: decididamente, las ciudades y los vehículos particulares no encajan bien. La lógica es que cada vez más ciudades se planteen restricciones totales al vehículo particular.

Autobuses, taxis, metro, tren o bicicletas son las alternativas lógicas para sustituir al vehículo particular, acompañadas de esquemas como car-sharing, ride-sharing o car-pooling que sirvan incrementar las opciones disponibles y para incentivar que los usuarios dejen su vehículo en casa – o incluso, dejen de plantearse adquirirlo. En ese entorno, que el transporte público se plantee cómo adaptarse a los tiempos que vivimos resulta absolutamente fundamental,y el hecho de que muchas de las compañías que llevan a cabo esa tarea dependan de concesiones o de licencias municipales lleva, de manera natural, a que los incentivos de la presión competitiva no se apliquen de la misma manera.

En ese contexto, que surjan cada vez más compañías dispuestas a proporcionar alternativas a la movilidad tradicional es algo que resulta completamente lógico. Compañías como Uber, Lyft, Didi Chuaxing, Zipcar, Getaround, DriveNow, Car2go, Cabify y muchos otros tejen una red de alternativas cada vez más densa, en cuya complejidad, unida a la de las opciones del transporte público, el usuario navega mediante apps que promueven el desplazamiento multimodal, como Citymapper o Moovel.

Así, pasamos de un vehículo particular como forma prácticamente hegemónica de transporte en la mayoría de las ciudades, a que tener coche sea simplemente una de las opciones de transporte multimodales, bajo demanda y compartidas. De una oferta de transporte limitada y con pocos niveles de servicio, a más posibilidades de elección y más niveles de servicio disponibles. De un transporte público financiado y gestionado por el sector público, a una oferta de transporte público mixta público-privada; y de sistemas de transporte desconectados y en silos, a sistemas conectados y bajo demanda que se basan en la información para generar eficiencia.

Tres ejes fundamentales de evolución, como ya comentamos en su momento en la presentación del informe Upgrading urban mobility: los retos de la movilidad urbana” del que fui coautor junto con Gildo Seisdedos: la intermodalidad (integración), la accesibilidad (pool de opciones disponibles), y la energía (propulsión). En ese punto, comenté los avances llevados a cabo por compañías como Tesla, los impresionantes resultados del lanzamiento del Model 3, la evidente supremacía del motor eléctrico en términos de simplicidad, reducción de averías y por supuesto, limpieza, y el fuerte impacto que podíamos esperar de una tecnología como la de vehículo autónomo, en una carrera en la que, además de la ya conocida Google, se unen muchos otros fabricantes y actores como la propia Tesla, Uber, Apple, Fiat Chrysler y muchos otros. Competencia, ese factor fundamental que hace avanzar la tecnología, y que las empresas de transporte público tienen que tener en cuenta: abandonar actitudes que consideren estos temas como poco probables o como ciencia-ficción resulta cada vez más fundamental… todos aquellos que pretendan apelar al escepticismo y al conservadurismo en la gestión basándose en que “los coches, autobuses, trenes y tranvías no conducirán solos” deberían ser echados a patadas en un escenario en el que se calcula como fecha más probable para la difusión de este tipo de vehículos situada en torno al año 2020. 

Es en esa circunstancia, con un auditorio lleno por testigo, cuando el que aparezca una persona que trabaja en una empresa municipal de transportes con una actitud absolutamente sectaria y con evidente animadversión por razones que no alcanzo a comprender, te permite entender lo difícil que resulta tratar de que cualquier tipo de solución al problema de la movilidad urbana provenga de alguien así. Una de esas personas con las que la máxima “don’t feed the troll” deja de aplicar: además de “saludar” el principio de mi intervención con esta tontería (la foto ni siquiera era mía), mintió descaradamente atribuyéndome frases que yo no dije en ningún momento de la charla (ni dije, como podrán atestiguar cualquiera de los asistentes, ni son consistentes con mi argumentación, ni obviamente pienso) y que además se niega obstinadamente a disculparse. Afortunadamente, en el contexto de un congreso fantásticamente bien organizado y lleno de personas constructivas, abiertas y positivas, una actitud como esa fue una verdadera excepción.

Noemí Navas, de Cinco Días, me entrevistó con motivo de la conferencia y lo publicó ayer bajo el título “No se va a poder vivir de conducir” (pdf), y también me cita en otro muy buen artículo escrito junto con Marimar Jiménez y titulado “Compras y alianzas, armas para dominar el transporte del futuro” (pdf). La presentación que utilicé está disponible en su integridad en Slideshare, y los enlaces recomendados los he incorporado en esta misma entrada.

 

Adidas X16En la imagen, una bota de fútbol Adidas. Pronto, si te compras cualquier calzado de la marca, es muy posible no solo que haya sido fabricado en Alemania, revirtiendo una política de varias décadas de fabricación totalmente manual en países de bajos costes laborales en el sudeste asiático, sino que además haya sido producido por robots.

La compañía ha construido una fábrica prototipo de 4,600 metros cuadrados en Ansbach, en pleno Baviera, denominada Speedfactory y diseñada para la producción casi totalmente robotizada. Al reducir el peso de los costes laborales, volver a traer la producción al país de origen de la multinacional pasa a tener todo el sentido del mundo. El principal rival de Adidas, Nike, que lleva ya algunos años reduciendo el volumen de trabajadores en sus fábricas a cambio de inversiones en automatización, también ha anunciado el desarrollo de una fábrica robotizada, aunque sus planes parecen avanzar con más lentitud. 

Pero Alemania no es, ni con mucho, el país que más rápido parece estar yendo en el camino de la robotización. Hace dos días, el mayor fabricante de productos electrónicos del mundo y mayor exportador de China, Foxconn, anunció que eliminaba 60,000 trabajadores de una de sus fábricas para sustituirlos por robots. La factoría, que reduce su plantilla de 110,000 a 50,000 personas, es tan solo una de las muchas que tiene la compañía, pero se prevé que la iniciativa se extienda al resto y sea también adoptada por sus competidores, en un movimiento que se inició con una colaboración con Google y que termine por alcanzar a millones de trabajadores del gigante asiático.

Por mucho que en los artículos anteriormente citados se afirme que Adidas o Foxconn no pretenden una sustitución radical de sus trabajadores en pro de una automatización total, que el gobierno chino ve la robotización como una oportunidad para cualificar más a sus trabajadores, o que los robots no pueden sustituirnos tan fácilmente porque les falta empatía, parece claro que los humanos vamos a tener que buscar nuestro sitio en unas cadenas de valor completamente redefinidas. Y vamos a tener que hacerlo porque esos procesos de sustitución ya no afectan únicamente a trabajos de cadena de producción, de fabricación o de ensamblaje, sino a tareas de cualquier otro tipo. Ya tenemos ejemplos de sustitución de personas que se dedican a poner cafés en Starbucks, a mover artículos en almacenes de Amazon, a resolver preguntas en un curso en Georgia Tech, a gestionar fondos de inversión, a hacer y servir hamburguesas en McDonalds o hasta a trabajar como abogados en un bufete. Los escasísimos ejemplos en sentido inverso, como la noticia que afirmaba que Mercedes Benz había sustituido robots por humanos en algunas de sus cadenas de montaje, son excepciones derivadas de la fabricación de series más cortas y de la dificultad de reprogramar robots para las mismas, un problema que afecta en mucho menor grado a medida que incorporamos y desarrollamos machine learning en esos robots.

Es la incorporación de machine learning, de hecho, lo que realmente está marcando la diferencia en los procesos de robotización. Los robots han pasado de representar la mera mecanización de tareas repetitivas, a dotarse de la capacidad de tomar decisiones en tiempo real y con más y más precisa información del entorno que un ser humano. Conducir es una tarea compleja, y un robot lo hace infinitamente mejor que un humano, sean cuales sean las circunstancias, hasta el punto de tener el potencial de reducir los accidentes de tráfico en un porcentaje muy elevado. Es el desarrollo del machine learning lo que, progresivamente, determina más oportunidades de sustitución de trabajadores por máquinas. Y a partir del momento en que los robots desarrollan una habilidad determinada, pretender que siga siendo un humano quien la lleve a cabo resulta simplemente absurdo.

La revolución industrial eliminó numerosos puestos de trabajo, y sin embargo, su balance final resultó en la mayor generación de productividad y riqueza de la historia de la humanidad. Sí, es más que posible que la robotización termine creando más puestos de los que amenaza con destruir. Pero esa transición y el desarrollo de habilidades que va a tener que conllevar va a representar un auténtico reto.

 

ACTUALIZACIÓN: dediqué también a este tema mi columna de esta semana en El Español, titulada “Ya están aquí“.

 

Pieter Bruegel the Elder - The Tower of Babel (SOURCE: Wikipedia)Facebook anuncia que abandona el motor de traducción de Bing, que utilizaba desde 2011, para sustituirlo con su propio motor de traducción basado en machine learning.

Un movimiento que permite entender muchas cosas: en primer lugar, la enorme y radical importancia que el machine learning, convertido ya en auténtica ventaja competitiva sostenible, está adquiriendo en un número cada vez mayor de tareas de todo tipo. Cada vez más, contar con las herramientas adecuadas que permitan poner en marcha algoritmos reutilizables, eficientes y fáciles de utilizar se convierte en un factor fundamental para ser competitivo. Quien quiera ser parte de ese futuro, debería prepararse aprendiendo a utilizar herramientas como TensorFlow, FBLearner Flow, AzureML, WhizzML, SystemML, Amazon Machine Learning u otras afines, bloques sobre los que se construye la ingeniería y los procesos del futuro. Herramientas que indudablemente tienden a rebajar las barreras de entrada y a poner el machine learning en manos de personas que no necesariamente sean data scientists, pero que es preciso entender e interpretar en la manera adecuada, además de ser consciente de su potencial.

En segundo lugar, la enorme importancia de la base de datos, de los elementos que se utilizan para alimentar y educar a esos algoritmos. Facebook es capaz de desarrollar su motor de traducción gracias al hecho de contar con una enorme cantidad de actualizaciones traducidas y evaluadas por los usuarios, mediante un sistema sencillo de cinco estrellitas que permite que el proceso no genere pereza y se pueda generar un enorme flujo de iteraciones que procesar. Es la esencia del machine learning: cada error, cada iteración no satisfactoria, se convierte en una enseñanza para el algoritmo, en un paso más en un proceso de aprendizaje continuo de una máquina que no olvida, que absorbe el conocimiento con una eficiencia muy superior a la del cerebro humano, y que puede además suplementarse con otros procesos iterativos. A la hora de construir una base de datos con la que educar a su algoritmo, Facebook cuenta con más de dos mil millones de traducciones de actualizaciones generadas cada día, en cuarenta idiomas, en 1,800 pares lingüísticos.

Como tercera conclusión interesante, entender la traducción como una muestra de lo que significa este proceso. Todos sabemos lo que eran los motores de traducción: sistemas imperfectos que traducían palabra por palabra para generar resultados cuando menos “pintorescos” que el usuario tenía que intentar prácticamente interpretar. De ahí pasamos a sistemas capaces de evaluar un término dentro de un contexto y escoger un significado basado en él, que seguían sin ser perfectos, pero mejoraban sensiblemente el resultado. Ahora, lo que tenemos es una máquina capaz de tomar una frase, compararla con infinidad de casos anteriores convenientemente evaluados, y generar reglas dinámicas muy similares a las que un humano construiría en su cerebro para llevar a cabo una tarea similar. Un largo camino, que mejora sensiblemente el resultado, que permite trabajar con idiomas con estructuras gramaticales muy diferentes, y que permite entender el funcionamiento de muchas cosas. ¿Qué hace que un coche autónomo basado en machine learning conduzca mucho mejor que un humano? No solo el que tenga mejor visión, unos reflejos prácticamente instantáneos o que no se canse, no se distraiga, no beba y no se pique con el conductor de al lado en el semáforo, sino que además, es capaz de aprender de cualquier error y anotarlo, junto con todo el contexto que lo originó, en una memoria permanente para que no pueda volver a ocurrir.

Las empresas del futuro serán las que sean capaces de aplicar este tipo de eficiencia basada en el machine learning a todos sus procesos.

 

IMAGE: Kittisak Taramas - 123RFApple anuncia que prepara un SDK para que los desarrolladores de apps puedan interactuar y tener acceso a la interfaz de voz Siri, y que utilizará ese asistente mejorado para lanzar un dispositivo estacionario para el salón posiblemente en el WWDC de este junio, un aparato del estilo del Amazon Echo o del recientemente anunciado Google Home de los que hablamos hace pocos días.

Con el movimiento, son ya tres de las grandes empresas tecnológicas compitiendo en un ámbito que se define cada vez más de una manera más clara, el de las interfaces de voz llevadas, además, al entorno doméstico, al salón de la casa. Los progresos llevados a cabo en el procesamiento de voz y en el análisis de lenguaje natural permiten que, hoy, la voz se configure como uno de los interfaces principales con el que interactuaremos con nuestros dispositivos… a pesar de que, paradójicamente, es un tema del que se lleva hablando muchísimos años y en el que el nivel real de uso es poco menos que anecdótico.

Hace pocos días, el noruego Dag Kittlaus, creador original de Siri que salió de la compañía de la manzana en octubre de 2011, presentó Viv, la que él considera una evolución del asistente personal que califica de “interfaz inteligente para todo“, que está aún en la fase de coming soon to devices near you”, y que se une a la cohorte de startups y compañías de todo tipo que animan el panorama de las interfaces de voz

La gran pregunta es qué llevaría a que una interfaz relativamente minoritaria y protagonista de todo tipo de anécdotas y chistes a convertirse, si las grandes empresas tecnológicas están en lo cierto en sus predicciones, en uno de los grandes protagonistas del futuro de la computación. Y la respuesta, una vez más, parece venir de las importantes mejoras experimentadas por la inteligencia artificial y el machine learning, capaces de generar una interacción cada vez más perfeccionada, con menos errores y con una gama más amplia de posibilidades. Ahora, si tomas tu smartphone e intentas interactuar con él a través de Siri o Google Now, la sensación es que, a pesar de la amplia base de datos que ya atesoran para educar a sus algoritmos, hablamos aún más de un juego que de otra cosa. Sí, puedes pedirle algunas tareas, te puedes ahorrar pulsaciones en el teclado para lanzar una búsqueda, te puede poner una canción, decirte qué tienes en la agenda o el tiempo que va a hacer, pero la impresión es que la cosa no pasa de ahí, y que al cabo de un rato, uno termina o bien sin saber qué diablos pedir, o bien diciendo alguna tontería. El ejercicio de desafiarse para intentar interactuar con el smartphone únicamente con la voz durante un cierto tiempo tiende a resultar bastante frustrante, a dejarnos una sensación de estar verdaderamente perdiendo el tiempo. Y sin embargo, a pesar de todo ello, todo indica que nos preparan un futuro basado en interfaces de voz situadas ya no solo en el terminal que llevamos en el bolsillo, sino en el mismísimo salón de nuestra casa.

En otros entornos, como el del dictado, la sensación es parecida. Llevamos años teniendo disponibles prestaciones que nos permiten dictar textos a nuestros ordenadores mediante interfaces como Dragon, con la que en algunos momentos llegué a tener una experiencia notable, o directamente activando determinadas funciones del sistema operativo, pero a pesar del tiempo que ha pasado desde que se lanzaron al mercado, el uso sigue siendo completamente testimonial salvo, lógicamente, en colectivos como el de los invidentes. Ver interactuar a un ciego con un dispositivo mediante la voz, con la pantalla apagada, genera una sensación extrañísima, pero parece claro que el desarrollo de este tipo de tecnologías ha reinventado su relación con la tecnología. Sin embargo, más allá de este colectivo, el uso sigue siendo muy minoritario, y lanzar comandos de viva voz sigue teniendo una cierta connotación de extravagancia. Y esa sensación, además, no parece adscribirse a ningún tipo de deriva generacional: no veo a los jóvenes hablando con sus smartphones más de lo que lo puede hacer la gente de mi edad.

¿Qué lleva a las empresas tecnológicas a tener tanta confianza en el papel de la voz como interfaz en el futuro? ¿Qué desarrollos podemos esperar que se conviertan en la verdadera killer application de las interfaces de voz, más allá de unos usos actuales que han dado de sí para un uso meramente anecdótico? Por mucho que Echo sea un éxito para Amazon y que muchos de sus clientes parezcan enamorados de Alexa, me cuesta imaginarme una popularización masiva de esta tecnología a falta de casos de uso verdaderamente interesantes, de integraciones que de verdad la doten de sentido. En muchos sentidos, el panorama de las interfaces de voz parece recordar a otros entornos y aplicaciones de la tecnología en los momentos previos a que Apple se pusiese a reinventarlas. ¿Supone el anuncio de Apple un intento de reinventar algo que, en mi opinión, ofrece aún desafíos muy importantes, o se trata simplemente de un movimiento de imitación?

Tras mucho tiempo probando interfaces de voz  y con una actitud seguramente más positiva que la media de usuarios, ver que las grandes tecnológicas apuestan decididamente por su uso sigue generándome cierto escepticismo, una situación en la que no suelo encontrarme cuando hablamos de tecnología: no dudo que llegarán, pero aún me parece que estamos muy lejos. ¿Soy el único en verlo así? ¿Estáis todos ya desde hace tiempo hablando sin parar con todos vuestros dispositivos y no me he enterado? 

 

IMAGE: Le Moal Olivier - 123RFGoogle anuncia que su Project Abacus, presentado en mayo del año pasado, estará disponible para desarrolladores en el entorno Android a finales de este año. El proyecto, que ha sido calificado por algunos como “creepy”, plantea la sustitución de las contraseñas por un conjunto de datos tomados de patrones del usuario, que incluyen desde su forma de teclear o caminar, hasta cuestiones como su localización, características de la voz o reconocimiento facial, entre otras cosas, para construir un trust score acumulativo que  sirve para autenticarte.

En la práctica, el proyecto es ni más ni menos que un análisis biométrico continuo, una continua monitorización mediante los sensores de un dispositivo llevada a cabo con el fin de comprobar que, efectivamente, somos nosotros los que lo llevamos encima o lo utilizamos. La idea es eliminar la necesidad de introducir contraseñas, números de identificación o patrones en una matriz de puntos que han demostrado ser escasamente eficaces y generar, además, una cierta incomodidad derivada del hecho de tener que introducirlos cada vez que pretendemos relacionarnos con el dispositivo.

Combinar este tipo de proyectos y tecnologías con tendencias como el pago electrónico genera escenarios que, aunque aún alejados del nivel de perfección que posibilita un uso cotidiano cómodo, nos llevan a especular sobre muchas posibilidades. La progresiva sensorización de cada vez más dispositivos convierte la identidad de una persona en un conjunto de datos generados con unos ciertos patrones, lo que implica que podemos relajar algunos de los requisitos si podemos obtener una razonable confianza utilizando otros. Plantear una identificación mediante huella digital, por ejemplo, no resulta especialmente seguro si tenemos en cuenta que nuestra huella está disponible en cualquier objeto que toquemos o incluso en algunas fotografías, pero además de elevar sensiblemente el nivel de pericia necesario para que alguien se plantee suplantar nuestra identidad para abrir nuestro dispositivo, puede

El sensor de huella digital de un smartphone, por ejemplo, necesita un nivel de precisión suficiente como para hacer una identificación razonablemente buena de una huella que, según el momento, se apoya en el sensor de maneras diferentes, en circunstancias variadas de limpieza, de nivel de hidratación o de otras circunstancias que puedan afectar a la huella. El nivel de tolerancia, por tanto, tiene que tener en cuenta estos factores: si es muy bajo y exige una lectura muy rigurosa, habría un elevado número de ocasiones en las que nos enfrentaríamos con el problema de no poder desbloquear nuestro dispositivo. De ahí la necesidad de disponer de un método alternativo, como el PIN. No obstante, si en un número elevado de ocasiones nos viésemos obligados a recurrir al PÎN, es evidente que terminaríamos por desconectar el sensor de huella por resultar poco práctico. Cuando nos planteamos métricas basadas en la biometría, este tipo de factores de redundancia pasan a tener un valor fundamental: no se trata de identificar a alguien por su paso, por su cara, por su localización, por su voz o incluso por su ritmo cardíaco, sino por una combinación de varios de esos factores, del mismo modo que se hace con el llamado device fingerprinting: si estás en un sitio identificado como habitual, como tu casa o tu despacho, la precisión de otros requerimientos pueden relajarse sensiblemente, o si la combinación de varios factores apuntan a que efectivamente eres tú, podemos no requerir otros datos.

La paradoja es evidente: en el mundo actual, objetos como las llaves ya no tienen ningún sentido, podríamos utilizar infinidad de procedimientos que evitarían que cargásemos con ellas (y en mi caso, que me las olvide en todas partes)… pero las llaves siguen siendo el mecanismo de seguridad empleado en el 99% de las puertas. Para desbloquear un dispositivo, estamos en el mismo caso: los patrones pueden inferirse por la grasa de las manos, las contraseñas pueden verse por encima del hombro… pero sigue siendo lo que utilizamos en la inmensa mayoría de los casos. En el fondo, se trata de buscar un compromiso razonable entre seguridad y comodidad, teniendo en cuenta que el número de variables que podemos utilizar para ello, en un mundo cada vez más sensorizado, ha crecido. ¿Estamos preparados para que nuestros dispositivos nos identifiquen mediante una lectura biométrica constante? ¿Nos parece la perspectiva de una lectura biométrica continua algo espeluznante, o estamos dispuestos a ello a cambio de gozar de una comodidad mayor?