IMAGE: Drive.aiEl pasado 30 de julio, las minivans Nissan NV200 de Drive.ai, una pequeña compañía fundada en 2015 por estudiantes del Artificial Intelligence Lab de Stanford University, comenzaron a circular y transportar viajeros en Frisco, una ciudad de 175,000 habitantes a unos 40 Km de Dallas conocida por su creciente afinidad con la industria tecnológica y en la que se han situado también las oficinas de Uber Elevate, la división de Uber dedicada al desarrollo del taxi volador. 

El piloto de Drive.ai está previsto que dure seis meses y que transporte a unas diez mil personas dentro de un área delimitada en el casco con varias rutas habitualmente muy congestionadas que incluyen centros comerciales, edificios de oficinas y recintos deportivos, tratando de demostrar que se puede obtener un impacto en la reducción del tráfico mediante este tipo de actuaciones. Lo interesante de la noticia, aparte de que no esté protagonizada por ninguno de los gigantes de la naciente industria de la conducción autónoma como Waymo o Cruise, es la aproximación que han desarrollado para intentar resolver uno de los problemas habituales en este tipo de experiencias: la comunicación con los peatones. Habitualmente, los vehículos autónomos ven a los peatones como entes cuyo comportamiento resulta difícil de anticipar, impredecibles y, en muchas ocasiones, caprichosos. Para el peatón, el vehículo es una caja negra que toma decisiones y en el que asume que hay una persona con la que puede intentar comunicarse, aunque por lo general esa comunicación se vea restringida a un mínimo gesto o una mirada de mera comprobación: un conductor nos puede, por ejemplo, señalar con un gesto que crucemos, pero poco más. Cuando además, el vehículo se convierte en autónomo, la relación con el peatón pasa a estar gestionada por un conjunto de algoritmos que intentan anticipar sus decisiones, algo nada sencillo y que, por otro lado, lleva a la desaparición incluso de ese mínimo canal de comunicación con un conductor que deja de ser una persona. IMAGE: Drive.ai

Las actitudes con respecto a los vehículos autónomos también son importantes, y más tras el accidente mortal del pasado marzo en Tempe (Arizona) por parte de un vehículo de Uber, lo que lleva a Drive.ai a diseñar un vehículo con colores brillantes, inmediatamente discernible en el tráfico ciudadano, que evoca la amistosa imagen de un autobús escolar. Pero además, para tratar de mejorar ese aspecto de la comunicación con el peatón o con otros conductores, Drive.ai ha diseñado un sistema de cuatro pantallas externas, una a cada lado del vehículo, una delante y otra detrás, que permiten mostrar algunos mensajes o combinaciones de mensajes que informan sobre si el vehículo está esperando a que un peatón cruce, iniciando la marcha, detenido con pasajeros subiendo o bajando, o en modo conducción manual. Por ejemplo, cuando el vehículo se detenga en un paso de cebra, mostrará “Waiting for you to cross” en las pantallas frontal y laterales, y “Crossing” en la posterior, junto con un gráfico de un peatón cruzando.

Una aproximación así puede suponer una conceptualización de un vehículo con aspecto “más amable”, que comunica sus intenciones o informa sobre las circunstancias que determinan sus decisiones en cada momento de la circulación. Una idea, la del vehículo que proporciona retroalimentación más allá de los elementos tradicionales como la luz de freno o el intermitente, que no había sido considerada por los grandes, pero que podría incorporarse, en caso de ser vista como exitosa, a los vehículos en el futuro.

Como comentábamos hace algunas semanas, hay más vida en el ámbito de la conducción autónoma que lo que vemos cuando seguimos las iniciativas de las grandes compañías, y algunas de esas iniciativas pueden traernos visiones o aproximaciones interesantes. En este momento, es aún pronto para saber hasta qué punto veremos algo parecido a taxis completamente autónomos en los que un usuario señala un punto de origen y otro de destino, frente a alternativas como las de suplementar el transporte público acercando a los usuarios a sus paradas, algún tipo de solución intermedia, o múltiples aproximaciones en función de la demanda. Pero la tecnología, como tal, da cada vez más pruebas de madurez, y comienza a trabajar ya no en el mero hecho de transportar de manera segura a personas en vehículos conducidos de manera autónoma, sino en aspectos como la interfaz con terceros o el modelo bajo el cual serán operados. Sin duda, una prueba más del recorte de los plazos de los que hemos hablado en su momento, y de la importancia que tiene que las autoridades municipales muestren una actitud proactiva ante este tipo de pruebas, se conviertan en laboratorios vivos en los que experimentar las diferentes alternativas, y lo tengan en cuenta no como parte de un futuro de ciencia-ficción, sino como una parte de un presente cada vez más real y tangible.

 

iPhone X: the attack of the clones

En la ilustración, siete móviles presentados o anunciados durante el Mobile World Congress 2018, tan solo unos meses después de la salida al mercado del iPhone X: todos ellos con pantalla infinita, todos ellos con notch,  todos ellos aspirando sea como sea a parecerse al iPhone X. Posiblemente, algunos de ellos tengan características muy interesantes: en algunos casos será el precio, en otros será la duración de la batería, en otros serán otros factores… pero prácticamente todos, salvo rarísimas excepciones, van a intentar parecerse al iPhone X.

Conseguir que se produzca de manera sistemática un fenómeno como el que refleja esta imagen es algo que está al alcance de muy pocos: como compañía o como analista, tienes que ser consciente de lo que significa. Esto lo escribí hace unos pocos meses, el pasado noviembre, coincidiendo con la salida del iPhone X, cuando hablaba de sus características diferenciales y de mi decisión de comprármelo a pesar de que mi smartphone anterior aún funcionaba perfectamente:

“El iPhone X es como el resto de los smartphones querrán ser dentro de pocos meses, pero ninguno lo logrará. Con el iPhone X, Apple ha vuelto a demostrar su verdadera dimensión.”

A eso precisamente me refería. Apple solo hay una, y cuando saca un nuevo modelo de lo que sea, el resto del mundo mira, observa, aprende… e intenta copiarlo. Intenta parecerse a todo lo que Apple ha dicho que va a convertirse en tendencia. Da lo mismo que la tendencia tenga sentido o que sea una simple manera de copiar un diseño que en poquísimo tiempo se ha convertido ya en icónico: lo importante es parecerse lo más posible al iPhone X, copiando si hace falta hasta el diseño del fondo de pantalla. Todo vale. Lo importante es demostrar que tu marca no ha perdido el tren. Y la salida de ese tren la marca quien la marca: Apple. Cuando ves un modelo de iPhone con elementos diferenciales, sea la pantalla infinita, la ausencia de botón o de jack de audio, las esquinas redondeadas, el desbloqueo facial o el notch, debes plantearte que estás viendo lo que en poco tiempo copiarán la gran mayoría del resto de marcas. Da igual que esas características sean una invención de Apple o no: quien las convierte en tendencia es quien es, y son muy pocas las marcas que se resisten a seguir la tendencia.

Como profesor de innovación, resulta fundamental entender y analizar este fenómeno: nada que ver con el hecho de ser o no un fanboy. Después, podremos plantearnos por qué Apple es la compañía más valiosa del mercado, o qué hace que sea capaz de ganar más de 1,400 dólares por segundo: son precisamente  estas cosas. Ni más ni menos que esto, la capacidad de definir cómo van a ser los smartphones a partir de que muestras el tuyo al mercado, la autoridad para definir las tendencias de diseño, de funcionalidad o las apuestas tecnológicas. La marca que consigue que todos los que fabrican un smartphone aspiren a parecerse al suyo cuando sean mayores. Lo demás… es anécdota.

 

IMAGE: Kittisak Taramas - 123RFApple anuncia que prepara un SDK para que los desarrolladores de apps puedan interactuar y tener acceso a la interfaz de voz Siri, y que utilizará ese asistente mejorado para lanzar un dispositivo estacionario para el salón posiblemente en el WWDC de este junio, un aparato del estilo del Amazon Echo o del recientemente anunciado Google Home de los que hablamos hace pocos días.

Con el movimiento, son ya tres de las grandes empresas tecnológicas compitiendo en un ámbito que se define cada vez más de una manera más clara, el de las interfaces de voz llevadas, además, al entorno doméstico, al salón de la casa. Los progresos llevados a cabo en el procesamiento de voz y en el análisis de lenguaje natural permiten que, hoy, la voz se configure como uno de los interfaces principales con el que interactuaremos con nuestros dispositivos… a pesar de que, paradójicamente, es un tema del que se lleva hablando muchísimos años y en el que el nivel real de uso es poco menos que anecdótico.

Hace pocos días, el noruego Dag Kittlaus, creador original de Siri que salió de la compañía de la manzana en octubre de 2011, presentó Viv, la que él considera una evolución del asistente personal que califica de “interfaz inteligente para todo“, que está aún en la fase de coming soon to devices near you”, y que se une a la cohorte de startups y compañías de todo tipo que animan el panorama de las interfaces de voz

La gran pregunta es qué llevaría a que una interfaz relativamente minoritaria y protagonista de todo tipo de anécdotas y chistes a convertirse, si las grandes empresas tecnológicas están en lo cierto en sus predicciones, en uno de los grandes protagonistas del futuro de la computación. Y la respuesta, una vez más, parece venir de las importantes mejoras experimentadas por la inteligencia artificial y el machine learning, capaces de generar una interacción cada vez más perfeccionada, con menos errores y con una gama más amplia de posibilidades. Ahora, si tomas tu smartphone e intentas interactuar con él a través de Siri o Google Now, la sensación es que, a pesar de la amplia base de datos que ya atesoran para educar a sus algoritmos, hablamos aún más de un juego que de otra cosa. Sí, puedes pedirle algunas tareas, te puedes ahorrar pulsaciones en el teclado para lanzar una búsqueda, te puede poner una canción, decirte qué tienes en la agenda o el tiempo que va a hacer, pero la impresión es que la cosa no pasa de ahí, y que al cabo de un rato, uno termina o bien sin saber qué diablos pedir, o bien diciendo alguna tontería. El ejercicio de desafiarse para intentar interactuar con el smartphone únicamente con la voz durante un cierto tiempo tiende a resultar bastante frustrante, a dejarnos una sensación de estar verdaderamente perdiendo el tiempo. Y sin embargo, a pesar de todo ello, todo indica que nos preparan un futuro basado en interfaces de voz situadas ya no solo en el terminal que llevamos en el bolsillo, sino en el mismísimo salón de nuestra casa.

En otros entornos, como el del dictado, la sensación es parecida. Llevamos años teniendo disponibles prestaciones que nos permiten dictar textos a nuestros ordenadores mediante interfaces como Dragon, con la que en algunos momentos llegué a tener una experiencia notable, o directamente activando determinadas funciones del sistema operativo, pero a pesar del tiempo que ha pasado desde que se lanzaron al mercado, el uso sigue siendo completamente testimonial salvo, lógicamente, en colectivos como el de los invidentes. Ver interactuar a un ciego con un dispositivo mediante la voz, con la pantalla apagada, genera una sensación extrañísima, pero parece claro que el desarrollo de este tipo de tecnologías ha reinventado su relación con la tecnología. Sin embargo, más allá de este colectivo, el uso sigue siendo muy minoritario, y lanzar comandos de viva voz sigue teniendo una cierta connotación de extravagancia. Y esa sensación, además, no parece adscribirse a ningún tipo de deriva generacional: no veo a los jóvenes hablando con sus smartphones más de lo que lo puede hacer la gente de mi edad.

¿Qué lleva a las empresas tecnológicas a tener tanta confianza en el papel de la voz como interfaz en el futuro? ¿Qué desarrollos podemos esperar que se conviertan en la verdadera killer application de las interfaces de voz, más allá de unos usos actuales que han dado de sí para un uso meramente anecdótico? Por mucho que Echo sea un éxito para Amazon y que muchos de sus clientes parezcan enamorados de Alexa, me cuesta imaginarme una popularización masiva de esta tecnología a falta de casos de uso verdaderamente interesantes, de integraciones que de verdad la doten de sentido. En muchos sentidos, el panorama de las interfaces de voz parece recordar a otros entornos y aplicaciones de la tecnología en los momentos previos a que Apple se pusiese a reinventarlas. ¿Supone el anuncio de Apple un intento de reinventar algo que, en mi opinión, ofrece aún desafíos muy importantes, o se trata simplemente de un movimiento de imitación?

Tras mucho tiempo probando interfaces de voz  y con una actitud seguramente más positiva que la media de usuarios, ver que las grandes tecnológicas apuestan decididamente por su uso sigue generándome cierto escepticismo, una situación en la que no suelo encontrarme cuando hablamos de tecnología: no dudo que llegarán, pero aún me parece que estamos muy lejos. ¿Soy el único en verlo así? ¿Estáis todos ya desde hace tiempo hablando sin parar con todos vuestros dispositivos y no me he enterado? 

 

Quartz para iOS…o las noticias como RPG de Denken Über

quartz-news-app-social

Siempre me gustó Quartz, creo que es el medio más interesante para los que nos gustan los medios aunque no el más grande ni el más influyente, desde su modelo de negocio hasta su forma de mostrar la información esta publicación es para mi, en la web, mucho más disruptiva que otros gigantes (ie: Buzzfeed, Vox) que tienen financiación pero no innovan más que en tráfico y quizas diseño… pero si antes Quartz me gustaba, con su nueva app de iOS logró que me enamore y entre a la app muchas veces al día solo para ver “que hay de nuevo”.

Se nota que atrás del modelo de negocio y de su desarrollo hay gente que estuvo en Wired en sus inicios (hasta uno de sus publishers) y quizas eso marca estas ganas de hacer pruebas hasta de interfaz.

Porque eso es esta app, una muestra de que la interfaz puede ser un generador de tráfico y fidelización como ninguna otra herramienta; no es un robot como dicen muchos, sino más bien me recuerda a un RPG donde las interacciones son limitadas pero bien curadas elegidas… tomar constantemente noticias editar el “gimme more”, resumir todo en 2 o tres líneas que bien pueden ser un tweet extendido que solo aparece si vos lo pedís o saltar lo que no te interesa hasta terminar lo que se considera interesante es un buen paso en interacción con noticias.

¿Que esto puede ser un primer paso para que en base a las interacciones aparezcan noticias más relevantes a mis gustos? ¿puede ser un “news-robot” que la gente de Facebook o Whatsapp quieran integran ASAP en sus servicios? ¿que con AI la interacción sería más amplia que dos opciones? seguro que si… pero esto es un primer paso y me gusta mucho.

Al margen, el dueño es Atlantic Media que edita The Atlantic fundado en 1857… y como crearon/lanzaron este site es una muestra de innovación en medios :)