IMAGE: Max Pixel - CC0El gobernador del estado de California, Jerry Brown, ha aprobado una ley que, a partir de octubre de 2019, eliminará el pago de fianza en los tribunales, y recurrirá en su lugar a algoritmos que estimarán el riesgo de fuga o de cometer delitos adicionales en caso de ser puestos en libertad. El algoritmo, que los diferentes condados tendrán obligación de obtener bien a través de algún proveedor o mediante desarrollo propio, calificará ese riesgo como bajo, medio o elevado y, en función de la calificación obtenida, el juez decidirá poner al presunto delincuente en libertad o mantenerlo en custodia.

La eliminación de la fianza en forma de pago monetario se considera, como tal, un éxito para los defensores de los derechos civiles, que afirmaban que esa práctica era discriminatoria y daba lugar a una justicia diferente para ricos y pobres, en la que el hecho de no tener recursos económicos conllevaba una condena al paso por prisión que, en muchos casos, se convertía en parte del problema. En palabras de Brown,

“Today, California reforms its bail system so that rich and poor alike are treated fairly”

(“Hoy, California reforma su sistema de libertad bajo fianza para que tanto ricos como pobres reciban un trato justo”)

Sin embargo, la satisfacción de los defensores de los derechos civiles no es completa: no son pocos los temas, y particularmente aquellos relacionados con la justicia, en los que los algoritmos, alimentados con datos obtenidos del propio sistema de justicia, han mostrado sesgos que tienden a perjudicar a las personas en función de su raza o de su estatus socioeconómico. No hay nada que convierta a un algoritmo, por el hecho de serlo, en algo intrínsecamente neutral: de hecho, los algoritmos construyen sus sesgos a partir de los datos con los que son alimentados, lo que incrementa el riesgo de perpetuar sesgos que, en muchos casos, ya existían anteriormente.

Por otro lado, muchos algoritmos son definidos como propietarios para proteger la propiedad intelectual de las compañías que los desarrollan, lo que genera la aparición de cajas negras contra las que resulta difícil plantear una argumentación de defensa. Esta cuestión se puso ya de manifiesto con el uso de COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), un algoritmo desarrollado por Equivant para estimar el riesgo de reincidencia de los convictos y ayudar a los jueces a tomar decisiones sobre la extensión de sus penas. Una decisión tomada por ese algoritmo fue objeto de apelación en el caso Loomis v. Wisconsin, en el que el acusado alegó que el uso de dicho algoritmo en el cálculo de su sentencia, un veredicto de seis años de cárcel, violaba sus derechos porque evitaba que impugnase la validez científica y la precisión de la prueba al desconocer el funcionamiento del algoritmo, y porque éste tenía además en cuenta variables como el género y la raza del acusado.

La legislación aprobada por el estado de California establece un período de revisión para el funcionamiento del sistema algorítmico que culminará en 2023 tras cuatro años de funcionamiento y generación de datos, momento en el que se examinará el conjunto de decisiones tomadas mediante su uso y se tratarán de determinar los posibles efectos producidos. La llegada de los sistemas basados en algoritmos a los sistemas judiciales puede suponer un alivio importantísimo para la carga de trabajo de los tribunales, particularmente en la instrucción de muchos casos considerados habitualmente como rutinarios que podría ser realizada de manera razonablemente automatizada en sus primeras fases, con la adecuada supervisión. Sin embargo, todo indica que uno de los factores fundamentales debería ser la existencia de un requisito de transparencia que permitiese a todas las partes implicadas conocer de forma transparente el funcionamiento de esos algoritmos, las variables y los pesos empleados para la determinación de los resultados, además de asegurar que los datos utilizados para entrenar a esos algoritmos no contienen, como tales, factores que determinen la aparición de sesgos no justificados. Una tarea que no parece sencilla, pero cuyos resultados podrían ser importantísimos de cara a resolver el problema del colapso de la justicia, el protagonista de esa otra máxima que dice “justicia retrasada es justicia denegada“.

¿Cómo evolucionará el sistema aprobado por el estado de California? ¿Puede llegar a suponer una ventaja en términos de justicia y equidad con respecto al sistema anterior? ¿Qué discusiones vamos a mantener a partir del momento en que más y más algoritmos entran en nuestros sistemas judiciales?

 

El directivo analitico - LUCADesde LUCA, la unidad de Big Data e Inteligencia Artificial de Telefonica, me pidieron un artículo para su blog corporativo sobre los nuevos entornos que precisan, cada vez más, tomar decisiones inteligentes a partir de los datos, y la importancia del análisis de esos datos de cara al desarrollo de un nuevo perfil de directivo. Una tendencia creciente en las compañías modernas que se encuadra en desmitificar el llamado gut feeling, esa supuesta “intuición” de los directivos que, cada día más, prueba que por cada una de esas decisiones acertadas hay, en realidad, un número similar o en ocasiones mayor de decisiones erróneas en contextos similares. 

Mi artículo, titulado “El directivo analítico” (pdf), trata de exponer cómo la llegada del machine learning y la analítica avanzada de datos al mundo directivo nos acerca cada vez más a entornos con un mayor nivel de profesionalización, más científicos y menos dados a sacralizar “la experiencia por la experiencia”, en beneficio de unas herramientas analíticas adecuadas y de unos procedimientos más rigurosos. El management, como ocurre en todas las disciplinas, está destinado a ser cada vez menos “magia” y más ciencia. Para las compañías, entender el funcionamiento de los proyectos de machine learning, sus requerimientos y los pasos que hay que dar para poder alimentar los algoritmos adecuados con datos resulta cada vez más importante – sí, todos los directivos piensan que “tienen muchísimos datos” y que “todos ellos pueden ser utilizados inmediatamente”, pero la realidad es otra muy diferente y mucho más compleja. Sabes qué podemos pedir a un algoritmo, qué posibilidades reales tiene de generar resultados tangibles y qué tiempos de desarrollo cabe esperar en un proyecto de este tipo es cada día más importante para las compañías.

A lo largo de la próxima década, como bien comentan Erik Brynjolfsson y Andrew McAfee en ese gran artículo titulado The business of artificial intelligence, la inteligencia artificial va a cambiar la forma de entender el management hasta el punto de que “aunque la inteligencia artificial no sustituya a los directivos, los directivos que utilicen inteligencia artificial sí sustituyan a los que no lo hacen.” Si como directivo sigues viendo el desarrollo de machine learning e inteligencia artificial desde lejos, como quien ve una película de ciencia-ficción, deberías saber que lo que haces, sea lo que sea, será en algún momento mejorado por otros directivos que sí han aprendido a aprovechar sus posibilidades. Entender el funcionamiento de este tipo de proyectos, su dimensionamiento, sus diferentes fases y lo que se les puede pedir de manera realista se está convirtiendo, tanto a nivel corporativo como personal, en una necesidad cada vez más acuciante. 

 

Anuario Comunicacion DircomDesde la Asociación de Directivos de Comunicación, Dircom, me pidieron una colaboración para su informe titulado “El estado de la comunicación en España 2018“, concretamente centrado en los retos de la tecnología en la gestión empresarial. 

El resultado es este “Futuro, tecnología y actitudes” en el que hablo sobre la necesidad de los directivos del futuro de ser personas “adictas al cambio”, con una actitud de exploración constante necesaria en un entorno que se mueve a una gran velocidad y en el que la inercia o el apego a la tradición en los negocios pasa directamente a ser un estorbo. Menciono machine learning, enernet, la realidad virtual y aumentada, y la cadena de bloques como exponentes de tecnologías que, sin duda, van a provocar cambios fortísimos en la operativa y el planteamiento de muchos negocios y que, a pesar de su popularidad y de la cantidad de artículos que generan, siguen apareciendo como carencias en la inmensa mayoría de los cuadros directivos, como su de alguna manera no se sintiesen presionados por estar al día, por entender las dinámicas que sin duda van a afectar a los negocios en su industria.

A continuación, el texto completo del artículo:

Futuro, tecnología y actitudes

El reto más importante del management de cara al futuro es entender la propia esencia de la innovación tecnológica y su velocidad de adopción. Como bien dijo el escritor de ciencia-ficción canadiense William Gibson, “el futuro ya está aquí, pero está desigualmente distribuido”: aquellas compañías que ignoren la innovación o se comporten como rezagados en su adopción, pasarán a ser consideradas como anticuadas o desfasadas, y serán desplazadas por otras capaces de ofrecer a los usuarios soluciones más adaptadas a los tiempos.

Y por supuesto, en la ecuación de la adopción tecnológica, la tecnología como tal es tan solo un componente. El otro, y posiblemente más importante porque no puede ser adquirido o incorporado fácilmente, son las personas. Las organizaciones del futuro son, por tanto, aquellas conformadas por directivos capaces de acomodar cambios a gran velocidad, de no acomodarse en una tecnología concreta y seguir sublimándola para todo hasta que no dé más de si. Los directivos del futuro deben ser personas “adictas al cambio”, deseosas de encontrar nuevas soluciones tecnológicas para probarlas y entender sus posibles contribuciones al negocio. Si no eres capaz de incorporar esa curiosidad, ese dinamismo y esa capacidad de adaptación a tu curriculum, piensa que posiblemente no sea mal momento para, si puedes, retirarte: el progreso te ha pasado por encima.

La tarea de intentar entender una sociedad en la que las máquinas son capaces de aprender a partir de datos de todo tipo, y de llevar a cabo tareas sin necesidad de programarlas como si fueran autómatas, exige un cambio de percepción fundamental: entender que un ordenador ya no es una máquina que programamos para hacer tareas repetitivas o pesadas con más velocidad y menos errores, sino que puede ser capaz de aprender a hacer cosas, de desarrollar soluciones creativas que un humano no había visto o entendido anteriormente. Las máquinas ya pueden hablar como las personas, aislar palabras y frases para entender lo que les dicen y contestarlo adecuadamente, estudiar operaciones para detectar patrones de fraude o necesidades concretas, hacer predicciones o controlar parámetros en función de circunstancias. Pueden conducir mucho mejor que las personas – y lo están haciendo ya, sin conductor de seguridad, en varios lugares del mundo – o desempeñar todo tipo de trabajos no solo mecánicos, sino intelectuales, como optimizar fondos de inversión o inversiones en publicidad. De hecho, el mayor crecimiento tanto en inversión como en publicidad se debe, desde hace varios años, a esas actividades llevadas a cabo mediante algoritmos.

Pero si el machine learning nos plantea un futuro retador… ¿qué decir de un mundo en el que la energía se produzca de manera prácticamente gratuita o con un coste mínimo en instalaciones distribuidas – enernet, siguiendo el paralelismo de lo que supuso internet y la distribución de la computación? En Australia, la mayor central eléctrica estará formada por placas y tejas solares en techos de viviendas, unidas a baterías domésticas de alta capacidad.

La realidad virtual y aumentada nos ofrece cada vez escenarios que permitirán todo tipo de actividades, desde trabajos independizados de lugar y tiempo, hasta posibilidades de todo tipo aplicadas al ocio, al entretenimiento o al aprendizaje. ¿Estamos poniéndolos a prueba en nuestra compañía para entender sus posibilidades, o nos limitamos a esperar a que sea otro el que lo haga, mientras nuestros obsoletos directivos lo contemplan con aire displicente y aire de “cualquier tiempo pasado fue mejor”?

Si blockchain, como todo indica, termina siendo la base de todos los sistemas transaccionales… ¿va nuestra empresa a ignorarlo, o va a intentar extraer de ello algún tipo de ventaja competitiva que podamos mostrar a nuestros clientes y usuarios?

El futuro no es una cuestión de tecnología. Es cuestión de curiosidad, de vocación por probarlo todo, de inquietud y de ganas de mejorar. El futuro es cuestión de actitud. Si tu empresa no es capaz de crear y alimentar esa actitud en sus directivos… se dirige hacia un problema de viabilidad futura de muy difícil solución. Y si no lo crees o no lo ves, lo más seguro es que, más que posible solución, seas parte del problema.

 

IMAGE: Nick Youngson CC BY-SA 3.0 ImageCreatorGoogle ha publicado su declaración de principios con respecto a la inteligencia artificial, un texto cuidado, de propósito necesariamente amplio y que pretende cubrir todos los supuestos acerca de los posibles usos de su tecnología. La declaración constituye un documento breve y de lectura muy recomendable que, sobre todo, plantea muchas reflexiones sobre el mundo al que nos dirigimos y las reglas que, necesariamente, debemos plantearnos de cara a su evolución.

La compañía llevaba tiempo trabajando en una reflexión de este tipo, del mismo modo que se está trabajando mucho en este sentido en otros ámbitos: aquellos que afirman que la publicación del documento es una reacción a la reciente dimisión de una docena de trabajadores y la petición firmada por varios miles más en protesta por la participación de la compañía en el Proyecto Maven del Departamento de Defensa, destinado a reconocer imágenes tomadas por drones en el campo de batalla, o bien no conocen a la compañía, o confunden claramente los factores coyunturales con fundacionales, la forma con el fondo. La regulación de la inteligencia artificial no es un tema en absoluto nuevo, se está discutiendo en numerosos foros, en algunos de los cuales participo personalmente, y Google, como uno de los actores más relevantes y avanzados en este tema, no ha hecho más que poner en negro sobre blanco una declaración de principios que proviene de un proceso de reflexión largo y continuado en el tiempo.

Probablemente influenciados por la coincidencia en el tiempo de esas dos circunstancias, la mayor parte de los titulares que leerás en las noticias se refieren a la importancia de la declaración de Google describiéndola de manera simplista como “Google promete que su AI no será utilizada para el desarrollo de armas o violaciones de los derechos humanos“, cuando la realidad es que basta una lectura superficial del documento para entender que sus intenciones van mucho más allá. La mención a las armas, de hecho, ocupa un muy breve espacio en una sección de propósito aclaratorio titulada “AI applications we will not pursue”, y se limita a decir que la compañía no trabajará en “armas u otras tecnologías cuyo principal propósito o implementación es causar o facilitar directamente lesiones a las personas”, pero que “seguirán trabajando con gobiernos o con los militares en otras áreas que podrán incluir ciberseguridad, entrenamiento, reclutamiento militar, cuidado de salud para veteranos o búsqueda y rescate”.

¿Qué es lo importante, por tanto, en la declaración de principios de Google? En primer lugar, la importancia de llevar a cabo esta reflexión en todos los ámbitos, y de hacerlo de una manera no tremendista, bien informada, y con un adecuado nivel de realismo, sin imaginarse robots asesinos en escenarios apocalípticos que nos atacan en cada esquina, o supuestas inteligencias superiores que deciden librarse de los humanos porque les resultan molestos. No, cuando hablamos de inteligencia artificial no hablamos de inteligencia de propósito general, y no lo haremos durante mucho tiempo, porque inteligencia artificial, a día de hoy, no es eso. De manera realista, hablamos en realidad de aplicaciones que tienen más que ver con qué productos son ofrecidos a qué clientes potenciales, con políticas de pricing, con la prevención del abandono o churn, la detección de posibles patrones de actividad fraudulenta, las opciones en la determinación del marketing mix, y sin duda, cada vez más cosas. Menos morboso que los robots asesinos, sin duda, pero enormemente importante y con un potencial muy importante para hacer las cosas mal.

De ahí que uno de los puntos más relevantes declaración de principios, que incluye cuestiones como “ser socialmente beneficioso”, “evitar la creación o el refuerzo de sesgos”, “ser responsable ante las personas”, “incorporar principios de privacidad” o “ser puesto a disposición para usos acordes con estos principios” (lo que implica impedir su uso a quienes no los respeten), me han parecido puntos como el “mantener altos estándares de excelencia científica” o, sobre todo, “ser construido y probado con seguridad”: muchos de los problemas que la tecnología está planteando a medida que avanza provienen no del hecho de que se diseñe con objetivos potencialmente perjudiciales, sino al hecho de que se gestione de manera incorrecta, con una seguridad inadecuada, con errores graves en los procedimientos o sin tener en cuenta que en el mundo existen, obviamente, personas malintencionadas o con intereses oscuros. No, el “Oooops!”, la candidez o la ingenuidad sin límites no pueden seguir sirviendo como disculpas cuando hablamos de desarrollo de tecnologías con un potencial importante para usos perjudiciales o malintencionados, y Google reafirma su compromiso de cara a este tipo de problemas, un compromiso que que va mucho más allá del “no seremos malvados”. Esto, por supuesto, no exime a la compañía de la posibilidad de cometer errores, que pueden suceder en cualquier proceso, pero si reafirma una importante voluntad de no cometerlos, de someterse a procesos rigurosos y de tratar de evitarlos a toda costa. 

La reflexión sobre los principios éticos asociados al desarrollo de algoritmos de inteligencia artificial es importante, y va a producirse a todos los niveles. Tan importante como llevarla a cabo es conseguir que se produzca en el ámbito adecuado, alejada de ignorantes que desconocen completamente lo que es la inteligencia artificial y que, con mentalidad tremendista, creen que hablamos de HAL, de Skynet o de robots Terminator que vienen del futuro para asesinar a Sarah Connor. Permitir que personas no preparadas o que no entienden el desarrollo de machine learning e AI se impliquen en la redacción de los principios éticos que gobernarán su futuro es un absurdo conceptual que, sin duda, nos llevaría a visiones restrictivas y a intentos inútiles de detener el futuro. Esto incluye, sin duda, a la política: que el pueblo te elija para supuestamente representarle no implica que estés preparado para opinar – o peor, para legislar – sobre todos los temas. Si no se sabe de un tema, es mejor y más productivo para todos que se ejerza la responsabilidad necesaria para reconocerlo, abstenerse y solicitar la implicación de quienes sí lo dominan.

No es lo mismo, indudablemente, llevar a cabo una reflexión sobre los principios éticos que deben regir el desarrollo de la inteligencia artificial en Google, uno de los principales actores en el tema, que la está integrando en absolutamente todos sus productos y que se ha caracterizado precisamente por llevar a cabo una ambiciosísima iniciativa de formación de la práctica totalidad de sus empleados en esta disciplina, que tratar de desarrollarla en un gobierno, en un organismo supranacional o en cualquier otro entorno político en el que el conocimiento del tema está entre lo nulo, lo superficial y lo directamente alarmista. Reflexiones de ese tipo se van a intentar hacer en todo tipo de foros, y lo que más me interesa de ellas no son sus resultados, sino el proceso por el cual se lleven a cabo y las consecuencias que se pretenda que puedan tener.

Plantear interrogantes sobre el futuro y tratar de evitar consecuencias potencialmente negativas o no deseadas es una cosa, que si se hace con el rigor y la disciplina que Google ha puesto en ello, puede ser interesante y provechoso. Perseguir fantasmas y prohibir cosas por si acaso en alguna esquina aparece Terminator entre resplandores y nubes de humo es otra muy diferente, y nos puede llevar a verdaderas tonterías e intentos de detener el progreso y la evolución natural de la humanidad. Cuidado con los miedos irracionales, la desinformación, y con sus primos, la demagogia y el populismo. En el desarrollo de principios razonables y con sentido sobre el desarrollo de algoritmos de inteligencia artificial se juega una parte importante de nuestro futuro. La inteligencia artificial es cuestión de principios, sí. Pero de principios bien hechos.

 

Gmail Smart Compose (IMAGE: Google)Si ayer no dedicaste un par de horas durante la tarde a ver la conferencia de apertura del Google I/O, hiciste mal. Este tipo de conferencias, teóricamente para desarrolladores, son cada día más en sus sesiones inaugurales un muy buen escaparate de lo que la tecnología nos trae y de las posibilidades que tendremos en nuestras manos en muy poco tiempo – quizá algo más si lo que esperas es tenerlo disponible en tu idioma y este es distinto del inglés, pero pronto en cualquier caso.

Entre los “prodigios” que Google nos presentó, de la mano de un Sundar Pichai que iba dando paso a distintos especialistas de producto, puede verse claramente que el camino que la compañía inició hace ahora unos dos años, con mensajes como “nuestra inteligencia artificial es más inteligente que la de nuestros competidores” porque “llevamos más tiempo“, “poner AI en todas partes” o “repensarnos como una compañía machine learning first” no eran en absoluto un brindis al sol. Las palabras AI, inteligencia artificial o machine learning fueron una repetición constante asociada a absolutamente todo, en cada producto, en cada prestación, en cada momento. El cambio es tan profundo, tan obsesivo, que ahora hasta Google Research ha sido rebautizada como Google AI: toda la investigación que se hace en la compañía tiene que ver con la incorporación de machine learning e inteligencia artificial. En todo y para todo.

Entre las novedades presentadas, un asistente de escritura de mensajes para Gmail. La idea de que un asistente sea quien te escribe los mensajes proponiéndote frases completas a medida que escribes lleva años sonando tentadora, y en algunos casos limitados, es posible que hasta la hayamos experimentado ya: cuando contesto uno de los entre dos y tres correos electrónicos que recibo cada semana interesándose por la posibilidad de introducir publicidad o posts patrocinados en esta página, propuesta a la que siempre respondo cordialmente pero en idénticos términos negativos, he comprobado que puedo componer un mensaje completo (unas dos líneas de texto) simplemente utilizando el teclado predictivo, que me va sugiriendo, una detrás de otra, las palabras que he utilizado en ocasiones anteriores. Pero claro, una cosa es una respuesta estándar a un tema repetitivo, y otra cosa lo que pudimos ver ayer: el mensaje que ilustra estas líneas está compuesto en más de un 90% por un algoritmo, con el humano simplemente iniciando algunas de las frases con un par de letras. Dentro de las sugerencias que el usuario acepta hay de todo: desde salutaciones y despedidas cordiales, hasta propuestas sobre qué llevar a una cena, pasando por fechas, horas o direcciones. Presenciar la secuencia tiene algo de inquietante: no solo es que la máquina sepa cómo sueles dirigirte a esa persona, sino que entiende perfectamente cosas como de qué va el mensaje en función de una palabra en su asunto, sabe qué ingredientes tiene una cena con ese elemento principal, calcula qué día puedes cenar con esas persona, sugiere una hora adecuada, y hasta le da tu dirección!

En realidad, tiendo a pensar que lo que me resulta inquietante – o me genera, por qué no decirlo, un cierto rechazo – es el hecho de que el ejemplo escogido sea un mensaje a una amiga proponiéndole una cena. No sé vosotros, pero cuando imagino la automatización de tareas, tiendo a verla asociada con tareas de trabajo, con cuestiones formales, funcionales, relativamente carentes de emoción. La idea de escribir a un amigo no entra dentro de ese conjunto: a los amigos les escribo de otra manera, con otra mentalidad… es, para mí, una tarea que seguramente, aunque pudiese, no querría automatizar. Igualmente en recíproco: no me gustaría pensar que mis amigos me escriben o contestan mis mensajes de manera automatizada, aunque es evidente que hay cuestiones, como la felicitación anual de mi cumpleaños, que dependen prácticamente de forma exclusiva de los recordatorios que Facebook, LinkedIn y otras redes lanzan a todos los que me tienen como parte de su red.

Otro caso particularmente interesante y, en muchos sentidos, futurista, es la posibilidad de hacer que el asistente de Google haga llamadas por ti a personas de carne y hueso para, por ejemplo, reservar una cita para cortarte el pelo o en un restaurante. Las conversaciones que Sundar Pichai utilizó como ejemplo de Google Duplex provienen del análisis y entrenamiento del algoritmo con miles de horas de conversaciones anónimas, y se desarrollaron de manera aterradoramente perfecta, con el asistente no solo expresándose como una persona en todos los sentidos, con una entonación completamente humana indiscernible de una persona real e incluso con uso de partículas de asentimiento o espera, o tomando decisiones sobre la marcha en situaciones de incertidumbre. Las personas reales que había al otro lado, una empleada de una peluquería y una de un restaurante con un dominio del inglés más bien escaso, no tuvieron oportunidad alguna de imaginarse que no estaban hablando con una persona.

En este caso, la situación resulta algo más aceptable, aunque algunos la sigan considerando “inquietante”: una llamada de ese tipo, para pedir una cita, es algo que consideramos mecánico, donde buscamos la eficiencia, y de hecho seguramente muchas personas ya preferimos hacerlo fríamente online en lugar de mediante el teléfono cuando tenemos oportunidad. Es, al menos para mí, un caso claramente distinto del anterior, del mensaje a un amigo. Pero sin duda, una tecnología así, en cuanto esté razonablemente desplegada y popularizada, va a cambiar las relaciones sociales: que millones de personas empiecen a utilizar de manera habitual un asistente para ese tipo de tareas llevará a que personas al otro lado del hilo empiecen a asumir que hablan con un asistente, y probablemente cambien su forma de expresarse buscando una mayor eficiencia y prescindiendo de determinadas normas clásicas de educación, o que incluso pasen a utilizar otro asistente para que “converse” con el nuestro.

Estamos ante uno de esos “momentos de la verdad” que últimamente vemos parece que a menudo: Google ya no solo demuestra sin paliativos que su tecnología conversacional, su AI y su machine learning está por encima de las de otras compañías de su entorno – algo que podemos comprobar en cualquier momento con un iPhone en la mano si le hacemos la misma pregunta precedida por un “Oye, Siri” frente a un “OK, Google” y comparamos la calidad de las respuestas – sino que, además, ha presentado opciones realistas de uso, tecnologías razonablemente maduras que soportan casos de uso extremadamente versátiles, situaciones cotidianas de todo tipo, coyunturas que cabe pensar que muchas compañías utilizarán para proponer ya no un servicio más barato, sino posiblemente, un servicio mejor, más predecible o con menos errores. Automatización que ya no significa “actuar de forma automática”, sino “resolver un problema complejo”, con máquinas que se han entrenado previamente para ello con miles de situaciones similares, que tienen siempre la respuesta perfecta, la palabra precisa, la decisión ideal.

¿Queremos asistentes para automatizar tareas que consideramos mecánicas o aburridas? Sin duda, sí. ¿Los queremos para automatizar nuestras relaciones con nuestros amigos, para solucionar esas eternas conversaciones de WhatsApp intentando quedar un día o en un sitio? Ahí ya empiezo a tener mis dudas… seguramente valoraría herramientas para algunas cosas, pero creo que prefiero seguir teniendo cierta seguridad de que estoy hablando con mi amigo, no con el asistente digital de mi amigo. Pero tal vez en unos años ya no sea así, y hayamos desarrollado todo un nuevo conjunto de protocolos sociales para esas ocasiones. Si no viste Google I/O, de verdad, dedícale un rato. Vale la pena. Si te inquieta algo de lo que veas, considéralo normal. Pero sobre todo, asume que este tipo de cosas ya han llegado, ya están disponibles, ya se pueden utilizar, ya no es ciencia-ficción, y te las vas a encontrar más pronto que tarde… quién sabe, si en el mensaje de un amigo que te invita a cenar!