IMAGE: WaymoWaymo, la subsidiaria de Alphabet, Inc. para el desarrollo de la conducción autónoma, anuncia que comienza pruebas de conducción de sus vehículos en tráfico real en Detroit, una zona caracterizada por inviernos muy fríos y con gran abundancia de nieve. Con esto, las pruebas de conducción en tráfico real de Waymo se extienden ya a 24 ciudades (una en el lluvioso estado de Washington, quince en California, seis en Arizona y una en Texas), y tratan de abarcar cada vez más circunstancias en la conducción.

La nieve y el hielo suponen una prueba muy dura para la conducción de un vehículo: no solo por las condiciones de las vías, que todos aquellos que hemos tenido que conducir alguna vez en esas circunstancias conocemos, sino por el efecto de las bajas temperaturas sobre los sensores, que pueden verse total o parcialmente tapados por los elementos y dificultar sus lecturas. Señales viales total o parcialmente ocultas, hielo o nieve en los sensores, visibilidad muy reducida… en dos ocasiones he pasado lapsos de tres días en Detroit en invierno, y decididamente no son condiciones para cualquiera. Hablamos, obviamente, de cuestiones muy relativas: yo me considero un buen conductor bajo cualquier tipo de lluvia – normal en alguien que ha vivido buena parte de su vida en Galicia – y me sorprende hasta qué punto los conductores madrileños son, por lo general, malos y peligrosos con el suelo mojado. Cuando viví en California, sin embargo, una simple lluvia fuerte se consideraba muy peligrosa, y muchos de mis compañeros en la universidad se quedaban en casa porque consideraban que no se podía conducir en esas circunstancias. En Detroit, no saber conducir razonablemente bien bajo la nieve implica casi que en invierno te resignas a quedarte en casa día sí y día también.

Los vehículos de Waymo están, a todas luces, batiendo récords de fiabilidad. Estadísticamente, calcular el nivel de accidentalidad es tan sencillo como ver el número de kilómetros recorridos por vehículos bajo conducción autónoma y dividirlos entre el número de accidentes, y por el momento, no hay ninguna discusión: los vehículos autónomos no tienen prácticamente ningún accidente, y los pocos que tienen, provienen de acciones de torpes conductores humanos que se dan contra ellos. Ahora bien… ¿qué ocurre cuando sometemos la tecnología a prácticamente “pruebas de tortura”, como conducir en medio de circunstancias climatológicas extremas como nieve o hielo?

El pensamiento tradicional apuntaría a pensar que de alguna manera, en ese tipo de circunstancias no habituales, el humano podría llegar a reaccionar de manera más ventajosa que la máquina. Sin embargo, todo indica que no es así, y que tras el adecuado entrenamiento, el vehículo autónomo puede llegar a adaptar su conducción y sus reacciones mucho mejor que el conducido por una persona, y accionar los controles de la dirección y la tracción de una manera mucho más adecuada a las circunstancias. ¿Qué ocurre cuando hablamos de niveles de accidentalidad, y comprobamos que, en efecto, el mejor escenario, incluso en circunstancias difíciles, es el de que el humano se mantenga alejado de los mandos y deje su lugar a una máquina? No, conducir con nieve y hielo no es precisamente la idea que tengo de algo “divertido”. ¿Qué ocurrirá cuando este tipo de vehículos autónomos ofrezcan sus servicios comercialmente en diversas ciudades comenzando ya en pocos meses, y tu pareja o tus padres insistan en que “ese día, con la que está cayendo, no vayas en tu vehículo, sino que utilices uno autónomo”? ¿Conseguirán las pruebas de Waymo en Detroit acallar a los escépticos, o seguirán diciendo eso de “que me lo dejen a mí o a mi cuñado, y ya verán lo que es conducir con nieve”… :-)

 

Uber accident (IMAGE: Fresco News)La lista de problemas recientes de Uber ya no se limitan a – por si fuera poco – denuncias por una cultura sexista que permitía abiertamente el acoso, o al presunto robo de información confidencial de Waymo para su proyecto de vehículo autónomo.

Ahora, además, añaden el accidente en el que uno de sus vehículos en pruebas se vio implicado hoy en Tempe, Arizona, que aparentemente viene a reflejar otra serie de problemas de los que se comenzó a hablar cuando otro de sus automóviles se saltó un semáforo en rojo en San Francisco y se evidenció no solo que circulaba en modo autónomo, sino que era un problema recurrente que había ocurrido en otras cinco ocasiones.

Obviamente, Uber tiene un importante problema de liderazgo, ya reconocido por su fundador, Travis Kalanick. Su personalidad marcadamente agresiva ha dado lugar a una cultura corporativa en la que prácticamente “vale todo”, en la que prácticamente todas las reglas pueden romperse cuando las circunstancias parecen exigirlo. Cuando tu compañía plantea soluciones que evidencian la necesidad de adecuar el marco legislativo al nuevo entorno, y se encuentra una fuerte resistencia en las administraciones de diferentes niveles, la agresividad y la disposición para retorcer las reglas es un valor muy interesante, porque permite que los usuarios se identifiquen con una compañía dispuesta a arriesgarse a sanciones o incluso a que sus directivos sean arrestados para poder ofrecer soluciones de transporte que se perciben como lógicas y razonables. Durante bastante tiempo, esa disposición de Uber para romper unas reglas percibidas como injustas y como una herencia de otros tiempos han sido vistas como algo positivo, como la evidencia de que la compañía estaba dispuesta a litigar hasta la extenuación y a insistir incansablemente en sus propuestas. El planteamiento era que existía un enemigo común, un sistema de licencias que únicamente interesaba a unos taxistas que pretendían mantener su monopolio contra un bien común que demandaba soluciones de transporte más versátiles y más variadas para así lograr el objetivo de desincentivar el vehículo privado. Ese enemigo común, esos taxis a los que Kalanick se refería como

“We’re in a political campaign, and the candidate is Uber and the opponent is an asshole named Taxi. Nobody likes him, he’s not a nice character, but he’s so woven into the political machinery and fabric that a lot of people owe him favors (…) We have to bring out the truth about how dark and dangerous and evil the taxi side is.”

(“Estamos en una campaña política, el candidato es Uber, y el oponente es un gilipollas llamado taxi. A nadie le gusta, es un personaje desagradable, pero está tan imbricado en la maquinaria y el tejido político que mucha gente le debe favores (…) Tenemos que poner de manifiesto la verdad sobre lo oscuro, peligroso y malvado que es el taxi”)

Esa fortísima agresividad, a la hora de luchar contra lo establecido ha sido percibida durante bastante tiempo como una característica positiva de Kalanick y de su compañía, como un elemento fundamental para buscar la disrupción. Sin embargo, las alarmas comenzaron a saltar cuando se evidenció que esa cultura de agresividad que permitía ignorar o romper las reglas no solo se aplicaba a “los malos”, sino también a competidores: en agosto de 2014, se evidenció que una serie de los llamados brand ambassadors de la compañía, equipados con teléfonos prepago se dedicaban a solicitar viajes a Lyft para cancelarlos posteriormente, además de otras acciones como tratar de reclutar a sus conductores con ofertas más agresivas, acciones que constituían todo un plan de sabotaje organizado. Las pruebas que demostraron que Lyft había entrado en la misma dinámica de guerra sucia y que también llevaba a cabo acciones similares contra Uber no lograron ocultar que la cultura de la compañía permitía desarrollar unas actitudes y tácticas brutalmente agresivas. Escándalos derivados del uso de técnicas para impedir que los reguladores y autoridades pudiesen investigar la actividad de la compañía en las ciudades, seguimiento a periodistas mediante una “God view” de la aplicación que permitía abiertamente invadir la privacidad de los usuarios, y finalmente, la llegada de la demanda de Waymo están configurando una tormenta perfecta para una compañía en la que todo indica que existe una cada vez más acuciante necesidad de ser salvada de sí misma.

Uber es una compañía edificada sobre un modelo indudablemente agresivo: lanzar un producto, captar cuantos más usuarios sea posible con un nivel de satisfacción alto, y esperar la llegada de una rentabilidad que tiene lugar cuando el elemento clave que presta el servicio, el conductor, es eliminado de la ecuación de coste. Cuanto antes tenga lugar ese “momento de la verdad”, esa eliminación del conductor mediante la tecnología de conducción autónoma, antes se puede empezar a salir de unos resultados negativos de varios miles de millones anuales que se van cubriendo mediante las aportaciones de los inversores. Es esa carrera por obtener la tecnología de conducción autónoma ha llevado a la búsqueda de atajos que supone montar un plan para que un directivo salga de Waymo cargado de información robada y listo para ponerla en práctica en su nuevo destino.

El problema está en que la agresividad, que puede ser un valor muy interesante a la hora de luchar contra la regulación, pasa a ser más discutible cuando se trata de cuestiones como batallar contra competidores, un escenario en el que deberían aplicarse estándares éticos razonables, y mucho más discutible aún cuando se intenta aplicar a la investigación y desarrollo o a los estándares de seguridad. Las pruebas son claras: incluso con la ventaja que supone disponer ilícitamente de la tecnología de Waymo, los vehículos autónomos de Uber están muy por debajo de los de Waymo en prestaciones, y su operación podría estar introduciendo riesgos muy posiblemente inaceptables. En un amplísimo reportaje de Recode, titulado Inside Uber’s self-driving car mess, se prueba que el clima de guerra civil dentro de la compañía está provocando que los progresos sean mucho más lentos, que los vehículos aún precisen de la actuación del conductor cada muy poco tiempo, que los incidentes con comportamientos erráticos de los automóviles son muy comunes y, en general, que el proyecto no solo está muy retrasado con respecto a los de otros competidores, sino que además, se lleva a cabo de una manera profundamente imprudente. El accidente de hoy, del que aún se sabe obviamente muy poco, podría ser una nueva prueba de ello.

Uber es una compañía valorada en torno a los 70,000 millones de dólares. Eso equivale, aproximadamente, a unos treinta y cinco camiones largos cargados de pallets de la altura de una persona y llenos de fajos de billetes de cien euros. Es mucho, muchísimo dinero. Pero ese dinero no está en ningún sitio, sino que responde a una cuenta muy sencilla, a una proporcionalidad directa entre los fondos que aportan sus inversores y el porcentaje de propiedad que obtienen con ello. Para sostener su actividad deficitaria, la compañía necesita que esas aportaciones de inversores no se detengan, y le permitan llegar hasta ese momento dulce en el que en conductor es sustituido por la conducción autónoma. Si la compañía es castigada por los tribunales y eso supone un retraso de ese momento, podría tener importantes problemas. Si una oleada de escándalos genera un clima de mala reputación, atraer inversores le resultará mucho más caro y difícil. No, el avance de la tecnología de conducción autónoma no parece estar en peligro a día de hoy, y todo indica que los plazos estimados para su madurez podrían estar cumpliéndose y progresando adecuadamente. No, no es la conducción autónoma la que tiene problemas… la que tiene problemas, y cada vez más, es Uber.

Y todo ello, por primar el exceso de agresividad, el “vale todo”, y por proyectar sobre toda la compañía ese aspecto de la personalidad de su fundador. La agresividad que fue un activo fundamental para la compañía a la hora de situarse en un mercado fuertemente regulado, convertida ahora en una terrible fuente de problemas de todos los colores. Y todo, por una cuestión de cultura corporativa.

 

IMAGE: Higyou - 123RF

Un informe de un grupo de científicos independientes norteamericanos para el Departamento de Defensa (DoD) afirma que los cada vez más impresionantes desarrollos en el campo de la inteligencia artificial no suponen en modo alguno una amenaza para la humanidad, como algunos destacados personajes habían implicado recientemente.

Según este grupo de científicos, la inquietud con respecto al desarrollo de la inteligencia artificial proviene únicamente de la excesiva atención mediática por parte de periodistas y escritores de ciencia-ficción prestada a los progresos de la llamada Artificial General Intelligence (AGI) o Inteligencia Artificial Fuerte, que se corresponde con los intentos de crear inteligencia en máquinas que exitosamente puedan realizar cualquier tarea intelectual desarrollada por cualquier ser humano. Este enfoque generalista de la inteligencia artificial, aunque obviamente provocativo en sus propósitos y objeto de una elevada (y excesiva) visibilidad, supone en el momento actual un campo muy restringido, muy limitado en sus progresos, y está muy lejos de obtener resultados mínimamente preocupantes. Los miedos que genera en la población, simplemente, no se corresponden con los hechos: en la actualidad, la atención dedicada al desarrollo de máquinas capaces de tomar decisiones a largo plazo, pensar y actuar como seres humanos es más bien escasa. 

Por contra, el desarrollo de la inteligencia artificial, tanto en lo relevante para el DoD como en otros ámbitos, se centra más en potenciar las habilidades del ser humano y en liberarlo de determinadas tareas, que en su sustitución directa como tal. De hecho, uno de los ámbitos más prometedores en el momento actual, el desarrollo de vehículos autónomos que puedan desplazarse en condiciones de mayor seguridad que los manejados por seres humanos, acaba de recibir un importante espaldarazo de otro organismo gubernamental norteamericano, la National Highway Traffic Safety Administration (NHTSA), que acaba de cerrar su investigación sobre el por el momento único accidente fatal de un vehículo Tesla cuando circulaba con el llamado Autopilot considerando no solo que no tiene ningún sentido pedir una retirada de los vehículos con ese sistema, sino afirmando que no hay defectos en su funcionamiento y prácticamente felicitando a la compañía por haber obtenido un 40% de reducción del número de accidentes. El informe, celebrado por la compañía en un breve comunicado, exonera completamente a la compañía por el accidente y consolida la idea de que los sistemas de conducción automatizados pueden contribuir sensiblemente a la reducción de la siniestralidad en el tráfico rodado.

Por mucho que las películas de ciencia-ficción nos cuenten, la idea de que el desarrollo de la inteligencia artificial puede llegar a constituir una amenaza para la humanidad, de que las máquinas pueden tomar conciencia y, de alguna manera, atacar al ser humano está muy lejos de la realidad. Lo que corresponde es ver a la inteligencia artificial como una fuente de ventajas, de ayudas y de mejora en nuestras condiciones de vida a través de todo tipo de avances. Olvidemos al robot amenazador. Y mejor, centrémonos en el desarrollo de la inteligencia artificial como nueva frontera para la humanidad.

 

Tesla Autopilot

Noemí Navas, de Expansión, me llamó para hablar sobre los últimos accidentes en vehículos fabricados por Tesla, y sobre si eso supone, de alguna manera y como ha finalmente titulado, que “¿Se rompe el sueño de la conducción autónoma?” (pdf), una pregunta para la que mi respuesta es un categórico “no”.

El accidente de Joshua Brown en un Tesla Model S al impactar contra el remolque de un camión cruzado en la carretera es indudablemente trágico y desgraciado, un conjunto de casualidades y de limitaciones que se conjugan muy pocas veces, pero que fundamentalmente, responde a un problema derivado del exceso de confianza: todo indica que el conductor, que según algunos estaba viendo una película y que en ocasiones anteriores se había grabado a sí mismo utilizando el Autopilot, tenía la costumbre de desobedecer las instrucciones del mismo, que piden claramente al usuario que mantenga su atención en la conducción y sus manos en el volante.

Que un camión con remolque largo cruce perpendicularmente una autopista, que el remolque sea blanco y brillante, que el obstáculo que supone no esté a la altura del suelo sino elevado, y que ni el Autopilot lo detecte ni el conductor esté suficientemente atento como para ver algo así es una combinación de factores muy poco usual. Y en esos casos, los factores que dependen del algoritmo se corrigen rápidamente y se incorporan para que no vuelva a pasar algo parecido incluso en las probablemente muy poco repetibles circunstancias similares, pero la pérdida de una vida humana ya ha tenido lugar. Pero sobre todo, el problema no está en la tecnología, sino en el exceso de entusiasmo que lleva a alguien a desoír las recomendaciones de uso de la misma. El cerebro y los patrones de conducta humanos, contrariamente a lo que ocurre con los algoritmos de las máquinas, no es fácilmente reprogramable, y si algo demuestra el accidente de Brown es que los humanos, ante una circunstancia que les genera confianza, tienden a disminuir el nivel de prudencia recomendable incluso haciendo caso omiso de las reglas marcadas por el fabricante. Es normal, todos tenemos ejemplos de ese tipo, y me consta perfectamente que Joshua Brown, en cierto sentido, podría haber sido yo mismo, que tiendo a compartir ese entusiasmo con lo nuevo y a cometer imprudencias con cierta facilidad.

¿Quiere eso decir que el sueño de la conducción autónoma de alguna manera se rompe? Nada más lejos de la realidad. Los números cantan: en el tiempo en que una persona ha perdido la vida en un accidente tan solo parcialmente atribuible a la conducción autónoma, muchos miles de personas han fallecido en las carreteras víctimas de fallos derivados de la conducción humana. El desarrollo de la conducción autónoma va a salvar muchísimas vidas, y detener su avance por un accidente que proviene de no seguir las normas recomendadas por el fabricante es una medida irresponsable, como demuestran los números. El problema no está en el Autopilot, sino en la naturaleza humana. No lo olvidemos: si las investigaciones de la National Highway Traffic Safety Administration (NHTSA) terminan determinando que Tesla desconecte su Autopilot hasta que los hechos puedan ser oportunamente esclarecidos, la consecuencia no será que se salven vidas, sino que se pierdan muchas más. 

El problema, por tanto, está en la naturaleza humana, en el exceso de confianza que lleva a las personas a creer que una tecnología de ayuda a la conducción que exige mantener la atención en la carretera y las manos en el volante es una tecnología de conducción completamente autónoma que nos permite relajarnos y dedicarnos a otras cosas en lugar de conducir.

De ahí que la estrategia seguida por Google, otro de los grandes implicados en el desarrollo de la conducción autónoma, sea radicalmente diferente: retirar al humano de la ecuación y eliminar toda posibilidad de que interfiera en la misma, de manera que no pasa por la fase de “ayuda a la conducción” y se lanza directamente a la de “conducción completamente autónoma”. Directos a fase IV sin pasar por la III o la II. Una aproximación sin duda interesante, que por el momento ha dado lugar a progresos mucho más radicales, pero que no quiere decir que otras estrategias sean incorrectas, simplemente que habrá que esforzarse en explicar a los usuarios de los productos lo que son y lo que no son. La nueva version del Autopilot, la 2.0, ya está en camino, y sin duda aprovechará los valiosos datos de millones de kilómetros de conducción autónoma con un número mínimo de accidentes para mejorar de manera sensible.

¿Debe Tesla seguir probando su Autopilot cuando existe alguna posibilidad de accidente? Por supuesto, si con ello reduce la posibilidad de otros accidentes que, con la confianza que nos ofrecen décadas de estadísticas luctuosas, se habrían producido. Es como funciona la ciencia y el desarrollo tecnológico: se prueban cosas, se evalúan los resultados, y se corrige, todo ello dentro de unos límites de prudencia que, en mi opinión, en ningún caso se han sobrepasado. Y la estadística me da la razón radicalmente.

El camino del progreso está lleno de víctimas, y en este caso, el camino de la conducción autónoma cuenta, sin ninguna duda, con más casos de personas salvadas de accidentes gracias a la tecnología que muertas en accidentes por su culpa. Revertir el razonamiento matemático y utilizarlo tendenciosamente para detener el progreso provocaría que muchos accidentes que podrían haber sido evitados no lo sean, y que sigamos creyéndonos falsamente más seguros cuando conducimos nosotros mismos, cuando la gran verdad es que cuanto más dejemos hacer a la máquina y menos toquemos nosotros, más seguros estaremos.

Otros accidentes recientes, como el de Albert Scaglione, parecen tener mucho más que ver con la imprudencia y con la velocidad excesiva que con el uso del Autopilot, y de hecho, todo indica que el conductor va a ser considerado responsable y convenientemente sancionado. El anterior, en el que un vehículo colisionó contra un edificio, parece haber tenido que ver con una confusión entre pedales y con una aceleración brusca que con un problema del Autopilot, y tampoco causó víctimas. Sin duda, como con toda tecnología en fase de adopción, nos disponemos a ver un cierto número de casos en los que los usuarios tratarán de culpar al vehículo, pretenderán que no ha habido ningún problema por su parte, y terminarán viendo, en la mayor parte de los casos, cómo un vehículo que registra todas las circunstancias de la conducción con precisión milimétrica termina por contradecir su versión. El eslabón débil no es la tecnología, somos las personas, como demuestran décadas y décadas de accidentes en la carretera. Cualquier obstáculo que se pretenda poner al desarrollo de la conducción autónoma implicará que tardemos más tiempo en eliminar al torpe humano de la ecuación. Y es eso, no el lanzar una versión de un Autopilot, lo que, nos pongamos como nos pongamos, será la verdadera acción irresponsable.