IMAGE: TheDigitalArtist - Pixabay (CC0)Dentro del despliegue de Amazon para presentar sus nuevos dispositivos, que ya habíamos anticipado en una entrada anterior, hay un tema que ha pasado relativamente desapercibido, pero que creo que tiene una importancia potencialmente radical: la idea de dotar a esos dispositivos de una inteligencia que vaya más allá de entender simplemente las palabras o frases que escucha, sino de entender matices o elementos adicionales, tales como el tono de voz, las interferencias u otros elementos que pueda llegar a escuchar y que sean susceptibles de indicar determinadas situaciones.

¿De qué hablamos realmente? Por ejemplo, de la posibilidad de susurrar algo a tu asistente, y que este entienda que no debe responder a todo volumen, porque posiblemente haya una persona durmiendo cerca o algún otro tipo de circunstancia que lo desaconseje. O que entienda por tu voz si estás enfadado o tranquilo. O incluso que sea capaz de activar determinadas funciones si detecta ruidos u otras variables que considera que pueden indicar que se está produciendo, por ejemplo, un robo o un incendio en tu casa.

¿Qué puede implicar dotar a una tecnología como la de los asistentes domésticos de una capa de inteligencia, por así decirlo, “sensible”, o capaz de adquirir un cierto nivel de empatía con su entorno? La primera capa resulta bastante sencilla de interpretar: hacer que tu asistente te entienda mejor porque sea capaz de separar, por ejemplo, los comandos que le das del sonido ambiente, del altavoz de la televisión o del ruido de una conversación es indudablemente positivo, e incide en una mayor satisfacción en el uso del producto (si cometes el error de situar tu Amazon Echo o tu Google Home cerca de la televisión sabrás a lo que me refiero). La segunda capa, a mi entender, va un poco más allá: que tu dispositivo sea capaz de escuchar, por ejemplo, un cristal roto, o un incremento de la temperatura o de la humedad poco habitual, y a partir de ahí pueda, de manera autónoma, tomar decisiones como la de activar una cámara, enviarte un mensaje o avisar a un servicio de emergencia como policía o bomberos en función de lo que ha detectado nos ofrece una gama de posibilidades mucho más amplia, al tiempo que posibilita también errores más clamorosos si lo hace mal.

Un algoritmo es perfectamente capaz, al nivel actual, de reconocer el sonido de un cristal roto. Pero a partir de ahí, tiene que seguir escuchando, y deducir si se te ha caído un vaso y no hay más problema que barrer los pedazos, o si se trata de un ladrón que ha entrado por una ventana, algo que requiere un nivel de inteligencia algo más sofisticado. Pero de nuevo, hablamos de una capa de servicios que, dentro de unos límites, podrían considerarse como “de conveniencia”, de inteligencia adicional que puede llegar a ser muy útil en determinadas casuísticas, y que posiblemente, ante la tesitura de encontrarnos mejor protegidos en caso de robo, incendio, inundación, etc., pocos optarían por desconectar. Y que, por otro lado, proporciona posibilidades ilimitadas: ¿podría una mujer que se siente amenazada por violencia doméstica, por ejemplo, introducir un algoritmo que la detecte y avise discretamente a la policía? ¿Qué connotaciones puede llegar a tener algo así?

La tercera capa me resulta un poco más compleja, y sin embargo, lo digo a sabiendas de que muy posiblemente, en poco tiempo, será una parte normal de mi día a día: que la máquina al otro lado entienda mi estado de ánimo, mi nivel de estrés o mi situación cuando le pido algo. Que entienda si estoy frustrado, si tengo prisa, si estoy siendo irónico o si busco una respuesta seria. Por el momento, las veces que la Siri de Apple cree detectar ironía en una pregunta y te responde eso de “buena pregunta” pensando que es un chiste me resultan más irritantes que otra cosa, en parte porque aún no tengo la costumbre de “hablar” o “conversar” como tal con mi asistente robótico. ¿Puede llegar un momento en el que sí lo hagamos? Confieso haber dedicado ratos de atasco o de camino del trabajo a casa a pedirle cosas a Siri e intentar entender cómo contesta, qué lógica sigue o qué capacidades inesperadas encuentro, y es bien sabido que hay una amplia gama de capacidades de este tipo de asistentes que son meramente chistes, curiosidades o detalles simpáticos introducidos por desarrolladores, aunque tiendo a pensar que son más para un tema de “mostrar a tus amigos lo que el cacharrito hace” que como forma de promover una conversación real. Pero también hay muchos casos de tecnología que usamos como simple acompañamiento, personas a las que no les gusta estar en su casa en silencia y prefieren tener la televisión puesta aunque no estén viéndola, simplemente porque hace compañía. ¿A qué podemos llegar explorando ese ámbito?

¿Hablar con tu asistente y mantener una conversación en la que te informa sobre un tema determinado, mientras detecta, por las inflexiones de tu voz, en qué situación estás? ¿Que te lea un libro con la entonación adecuada a cada situación, en lugar de con una voz plana? ¿Que te lea las noticias y te permita navegar por ellas, pidiéndole que te amplíe un tema o busque información adicional en otras fuentes? ¿Que detecte las noticias que te han interesado anteriormente y te alerte cuando surjan otras relacionadas? Si ponemos dispositivos capaces de escucharnos en cada uno de los sitios en los que pasamos algo de tiempo y en donde podemos pedirles cosas, la idea de aprovechar sus posibilidades a tope discurre entre el miedo a la pérdida de privacidad, y el potencial atractivo que esas funcionalidades puedan tener. Y al ritmo que va esto, que nuestros hogares se llenen de este tipo de dispositivos es solo cuestión de tiempo, de dinámicas de adopción y de desarrollo de más y más aplicaciones que más personas puedan considerar interesantes.

Es tiempo de dejar los tópicos a un lado y de ponerse a especular.

 

Comments are closed.