IMAGE: EcoRobotixUna interesante nota en MIT Technology Review, Weed-killing robots are threatening giant chemical companies’ business models, muestra la preocupación de las grandes empresas químicas por el previsible descenso en el uso masivo de herbicidas en cultivos, debido sobre todo a la aparición de robots relativamente sencillos capaces de recorrer las zonas de cultivo, localizar malas hierbas mediante algoritmos de visión computerizada, y administrar esos herbicidas de manera localizada, exclusivamente sobre la planta que se pretende eliminar, en lugar de hacerlo de manera extensiva e indiscriminada, con el consiguiente ahorro de costes y alivio en las consecuencias ecológicas de ese uso masivo de productos químicos.

El uso de estos robots me recuerda poderosamente a un proyecto a una escala infinitamente menor que vi hace algún tiempo y que me encantó, llamado FarmBot: un montaje relativamente sencillo y gestionado mediante un Raspberry Pi, el ordenador de 30 euros, que convierte un huerto pequeño en un sistema de coordenadas en el que se mueve un cabezal con elementos intercambiables que administra la cantidad de agua adecuada para cada planta, y que además, destruye las malas hierbas simplemente golpeándolas y enterrándolas, sin siquiera recurrir al uso de herbicidas. Una preciosidad de proyecto para huertos pequeños, que permite entender las posibilidades de la robotización en entornos que tradicionalmente consideramos relativamente alejados del progreso tecnológico, aunque la realidad indique que, a lo largo del tiempo, se ha producido una auténtica revolución en el uso de tecnología, en la productividad y en el rendimiento de muchas instalaciones agrícolas.

Mecanismos alimentados por energía solar, recorriendo los campos, y llevando a cabo un trabajo relativamente mecánico como la localización de plagas y malas hierbas, que proceden además a tratar de manera inmediata: el equivalente a tener una persona recorriendo y supervisando permanentemente una extensión de terreno, pero llevado a cabo de una manera mucho más eficiente tanto en rendimiento, como en el uso de recursos, como previsiblemente en calidad y reducción de errores.

Las consecuencias son evidentes: compañías de maquinaria agrícola como John Deere adquiriendo empresas líderes en la aplicación de machine learning a este entorno para dotarse de capacidades que les permitan ofrecer esas capacidades en el futuro, al tiempo que incorporan, no sin cierta polémica en torno a cuestiones como la propiedad del software, cada vez más tecnología para automatizar total o parcialmente el uso de su maquinaria. Un entorno interesantísimo, con fuertes consecuencias en la productividad, y que generalmente tendemos a considerar tradicional, aunque como vemos, cada vez lo es menos.

 

Gmail Smart Compose (IMAGE: Google)Si ayer no dedicaste un par de horas durante la tarde a ver la conferencia de apertura del Google I/O, hiciste mal. Este tipo de conferencias, teóricamente para desarrolladores, son cada día más en sus sesiones inaugurales un muy buen escaparate de lo que la tecnología nos trae y de las posibilidades que tendremos en nuestras manos en muy poco tiempo – quizá algo más si lo que esperas es tenerlo disponible en tu idioma y este es distinto del inglés, pero pronto en cualquier caso.

Entre los “prodigios” que Google nos presentó, de la mano de un Sundar Pichai que iba dando paso a distintos especialistas de producto, puede verse claramente que el camino que la compañía inició hace ahora unos dos años, con mensajes como “nuestra inteligencia artificial es más inteligente que la de nuestros competidores” porque “llevamos más tiempo“, “poner AI en todas partes” o “repensarnos como una compañía machine learning first” no eran en absoluto un brindis al sol. Las palabras AI, inteligencia artificial o machine learning fueron una repetición constante asociada a absolutamente todo, en cada producto, en cada prestación, en cada momento. El cambio es tan profundo, tan obsesivo, que ahora hasta Google Research ha sido rebautizada como Google AI: toda la investigación que se hace en la compañía tiene que ver con la incorporación de machine learning e inteligencia artificial. En todo y para todo.

Entre las novedades presentadas, un asistente de escritura de mensajes para Gmail. La idea de que un asistente sea quien te escribe los mensajes proponiéndote frases completas a medida que escribes lleva años sonando tentadora, y en algunos casos limitados, es posible que hasta la hayamos experimentado ya: cuando contesto uno de los entre dos y tres correos electrónicos que recibo cada semana interesándose por la posibilidad de introducir publicidad o posts patrocinados en esta página, propuesta a la que siempre respondo cordialmente pero en idénticos términos negativos, he comprobado que puedo componer un mensaje completo (unas dos líneas de texto) simplemente utilizando el teclado predictivo, que me va sugiriendo, una detrás de otra, las palabras que he utilizado en ocasiones anteriores. Pero claro, una cosa es una respuesta estándar a un tema repetitivo, y otra cosa lo que pudimos ver ayer: el mensaje que ilustra estas líneas está compuesto en más de un 90% por un algoritmo, con el humano simplemente iniciando algunas de las frases con un par de letras. Dentro de las sugerencias que el usuario acepta hay de todo: desde salutaciones y despedidas cordiales, hasta propuestas sobre qué llevar a una cena, pasando por fechas, horas o direcciones. Presenciar la secuencia tiene algo de inquietante: no solo es que la máquina sepa cómo sueles dirigirte a esa persona, sino que entiende perfectamente cosas como de qué va el mensaje en función de una palabra en su asunto, sabe qué ingredientes tiene una cena con ese elemento principal, calcula qué día puedes cenar con esas persona, sugiere una hora adecuada, y hasta le da tu dirección!

En realidad, tiendo a pensar que lo que me resulta inquietante – o me genera, por qué no decirlo, un cierto rechazo – es el hecho de que el ejemplo escogido sea un mensaje a una amiga proponiéndole una cena. No sé vosotros, pero cuando imagino la automatización de tareas, tiendo a verla asociada con tareas de trabajo, con cuestiones formales, funcionales, relativamente carentes de emoción. La idea de escribir a un amigo no entra dentro de ese conjunto: a los amigos les escribo de otra manera, con otra mentalidad… es, para mí, una tarea que seguramente, aunque pudiese, no querría automatizar. Igualmente en recíproco: no me gustaría pensar que mis amigos me escriben o contestan mis mensajes de manera automatizada, aunque es evidente que hay cuestiones, como la felicitación anual de mi cumpleaños, que dependen prácticamente de forma exclusiva de los recordatorios que Facebook, LinkedIn y otras redes lanzan a todos los que me tienen como parte de su red.

Otro caso particularmente interesante y, en muchos sentidos, futurista, es la posibilidad de hacer que el asistente de Google haga llamadas por ti a personas de carne y hueso para, por ejemplo, reservar una cita para cortarte el pelo o en un restaurante. Las conversaciones que Sundar Pichai utilizó como ejemplo de Google Duplex provienen del análisis y entrenamiento del algoritmo con miles de horas de conversaciones anónimas, y se desarrollaron de manera aterradoramente perfecta, con el asistente no solo expresándose como una persona en todos los sentidos, con una entonación completamente humana indiscernible de una persona real e incluso con uso de partículas de asentimiento o espera, o tomando decisiones sobre la marcha en situaciones de incertidumbre. Las personas reales que había al otro lado, una empleada de una peluquería y una de un restaurante con un dominio del inglés más bien escaso, no tuvieron oportunidad alguna de imaginarse que no estaban hablando con una persona.

En este caso, la situación resulta algo más aceptable, aunque algunos la sigan considerando “inquietante”: una llamada de ese tipo, para pedir una cita, es algo que consideramos mecánico, donde buscamos la eficiencia, y de hecho seguramente muchas personas ya preferimos hacerlo fríamente online en lugar de mediante el teléfono cuando tenemos oportunidad. Es, al menos para mí, un caso claramente distinto del anterior, del mensaje a un amigo. Pero sin duda, una tecnología así, en cuanto esté razonablemente desplegada y popularizada, va a cambiar las relaciones sociales: que millones de personas empiecen a utilizar de manera habitual un asistente para ese tipo de tareas llevará a que personas al otro lado del hilo empiecen a asumir que hablan con un asistente, y probablemente cambien su forma de expresarse buscando una mayor eficiencia y prescindiendo de determinadas normas clásicas de educación, o que incluso pasen a utilizar otro asistente para que “converse” con el nuestro.

Estamos ante uno de esos “momentos de la verdad” que últimamente vemos parece que a menudo: Google ya no solo demuestra sin paliativos que su tecnología conversacional, su AI y su machine learning está por encima de las de otras compañías de su entorno – algo que podemos comprobar en cualquier momento con un iPhone en la mano si le hacemos la misma pregunta precedida por un “Oye, Siri” frente a un “OK, Google” y comparamos la calidad de las respuestas – sino que, además, ha presentado opciones realistas de uso, tecnologías razonablemente maduras que soportan casos de uso extremadamente versátiles, situaciones cotidianas de todo tipo, coyunturas que cabe pensar que muchas compañías utilizarán para proponer ya no un servicio más barato, sino posiblemente, un servicio mejor, más predecible o con menos errores. Automatización que ya no significa “actuar de forma automática”, sino “resolver un problema complejo”, con máquinas que se han entrenado previamente para ello con miles de situaciones similares, que tienen siempre la respuesta perfecta, la palabra precisa, la decisión ideal.

¿Queremos asistentes para automatizar tareas que consideramos mecánicas o aburridas? Sin duda, sí. ¿Los queremos para automatizar nuestras relaciones con nuestros amigos, para solucionar esas eternas conversaciones de WhatsApp intentando quedar un día o en un sitio? Ahí ya empiezo a tener mis dudas… seguramente valoraría herramientas para algunas cosas, pero creo que prefiero seguir teniendo cierta seguridad de que estoy hablando con mi amigo, no con el asistente digital de mi amigo. Pero tal vez en unos años ya no sea así, y hayamos desarrollado todo un nuevo conjunto de protocolos sociales para esas ocasiones. Si no viste Google I/O, de verdad, dedícale un rato. Vale la pena. Si te inquieta algo de lo que veas, considéralo normal. Pero sobre todo, asume que este tipo de cosas ya han llegado, ya están disponibles, ya se pueden utilizar, ya no es ciencia-ficción, y te las vas a encontrar más pronto que tarde… quién sabe, si en el mensaje de un amigo que te invita a cenar!

 

Library archive systemFacebook comenta, en una de las conferencias de su F8, cómo utiliza las etiquetas en los varios miles de millones de fotografías que los usuarios suben a Instagram, para entrenar a sus algoritmos de reconocimiento de imágenes, y cómo eso le ha permitido mejorar los estándares de la industria en este sentido y que sus algoritmos sean capaces de alcanzar una fiabilidad del 85.4%

La idea de Facebook de utilizar las imágenes subidas y etiquetadas por sus usuarios para entrenar algoritmos de reconocimiento ya había sido puesta en práctica anteriormente por Google, que utiliza los vídeos etiquetados de YouTube también de manera sistemática para exactamente lo mismo: a la hora de explicar a un algoritmo en qué consisten verbos como abrazarse, pelearse o cocinar, por ejemplo, pocas cosas pueden ser más explicativas que un vídeo etiquetado con esas palabras. El sistema, obviamente, no es perfecto, pero los errores cuando hablamos de etiquetado de una fotografía o vídeo llevado a cabo por el usuario que lo ha subido son más bien escasos, porque por norma general, el etiquetado tiene como misión facilitar una mejor localización del contenido.

Quien tiene un conjunto de datos etiquetados de manera razonablemente fiable tiene un tesoro, porque puede utilizarlos para entrenar a un algoritmo y conseguir que una máquina sea capaz de entender el significado de lo que hay en esos datos. Recientemente comenté el caso de Qure.ai, una compañía con la que entré en contacto a través de Netexplo, que recopilaba archivos de radiólogos y otros profesionales médicos que trabajaban con imágenes (escáneres, tomografías, etc.) y que solían guardarlos etiquetados con el diagnóstico correspondiente. Eso permitía, alimentando al correspondiente algoritmo, desarrollar un sistema capaz de diagnosticar tumores a partir de imágenes médicas, algo que hoy es preciso llevar a cabo de manera manual y que, obviamente, no está exento de error. Con el tiempo, la predicción de la compañía era que, a medida que la fiabilidad del algoritmo se incrementaba, los médicos muy probablemente dejarían de querer diagnosticar esas imágenes manualmente por miedo a pasar por alto determinados patrones que la máquina sí podía reconocer, algo que eventualmente, a lo largo del tiempo, podría determinar que esa habilidad se perdiese.

Cada vez está más clara la importancia de que las compañías de todo tipo sean conscientes de estas cuestiones. La clave ya no está en contar con los mejores profesionales, sino en el hecho de que tu actividad te permita generar datos estructurados que puedan ser utilizados para entrenar a los correspondientes algoritmos. Da igual lo que hagas, plantéatelo: ¿cómo podrías hacer que el día a día, la operativa de tu compañía sea capaz de generar ese repositorio de datos correctamente etiquetados que puedan ser suministrados a un algoritmo para su aprendizaje? ¿Qué podríamos llegar a hacer si un algoritmo consigue un nivel de fiabilidad elevada en ese sentido?

Como en todo, la cuestión es más de mentalidad que de otra cosa. Entender el problema permite llegar antes no solo a una definición de objetivos razonables, sino también a una identificación más rápida de problemas potenciales que permita trabajar en su resolución. A la hora de imaginar qué tareas puede llegar a hacer un algoritmo, la mayor parte de los directivos se encuentran con limitaciones de planteamiento: ven una gran cantidad de sus procesos como intrínsecamente humanos, y son incapaces de imaginar que determinadas habilidades para las que hoy se requiere una persona puedan llegar a ser dominadas por una máquina. Obviamente, los algoritmos no van a hacerlo todo, o al menos no de la noche a la mañana: los proyectos de machine learning precisan de una primera fase sumamente compleja y dura en la que que hay de definir objetivos concretos, recolectar datos, transformarlos y suplementarlos con más datos adicionales antes de poder pasar a armar modelos y hacer predicciones o diagnósticos que puedan ser evaluados… pero a pesar de la dificultad de esos proyectos, una cosa está clara: los datos son la auténtica barrera de entrada, la clave de la cuestión, lo que va a diferenciar a las compañías capaces de avanzar en ese sentido de aquellas que no lo consigan.

Orientar la actividad de una compañía a la generación de datos analizables no es algo que requiera un enorme esfuerzo ni cambios radicales: simplemente requiere entender los objetivos y atacar el problema de la manera adecuada. Empezar pronto, en cambio, es una garantía de, cuando menos, tener hechos los deberes para lo que pueda venir. Los datos como auténtica ventaja competitiva. Las compañías tecnológicas hace tiempo que lo tienen claro. ¿Qué puedes hacer tú en la tuya?

 

IMAGE: E. DansUn artículo en The Atlantic, The era of fake video begins, subraya el problema que surge cuando el desarrollo del machine learning hace perfectamente posible crear vídeos manipulados en los que se puede obtener prácticamente cualquier efecto, desde insertar una cabeza en un cuerpo de otra persona con un nivel de perfección que convierte el cambio en prácticamente imperceptible, hasta cambiar el movimiento de los labios de un personaje y su voz para que parezca que dice algo que no ha dicho, pasando por cambiar el tiempo o pasar del día a la noche.

Es el mundo del deepfake, término creado por la fusión de deep learning y fake, y popularizado por el primer usuario que creó un canal para subir vídeos de ese tipo: la posibilidad de, con herramientas relativamente sencillas, manipular o alterar la realidad para que se ajuste a lo que alguien pretende, sea un vídeo porno con su actriz favorita, un político diciendo algo que no dijo, o cualquier otro tipo de invención que, en realidad nunca tuvo lugar, pero se hace parecer perfectamente real y recogida en vídeo. A partir del momento en que las herramientas son suficientemente sencillas, cualquiera con tiempo e interés puede hacerlo, y la tarea se convierte en algo similar a contar con un asistente prácticamente perfecto que corrige los detalles fotograma a fotograma. Algunas páginas han prohibido su uso, pero en otras, particularmente pornográficas, es fácil encontrar secciones enteras de deepfakes, de vídeos creados por usuarios en los que se utilizan este tipo de técnicas, con resultados, en muchos casos, perfectamente creíbles o muy difíciles de detectar para un observador casual o no entrenado.

¿Qué ocurre en un mundo en el que la tecnología avanza para crear realidades inventadas que no podemos creer aunque las estemos viendo con nuestros propios ojos? ¿Qué consecuencias puede tener que podamos ver un vídeo porno protagonizado por quien nosotros queramos, poner a un político a decir la frase que estimemos oportuna, o falsear cualquier otro detalle de cualquier tipo? El problema de las fake news, la invención de titulares y noticias falsas destinadas a su difusión, pasa a tener una nueva dimensión: ahora no solo se trata de creer o no a la fuente, sino al material audiovisual que viene con ella. Desde posibles problemas reputacionales a crisis de imagen o simple entretenimiento, generados tecnológicamente de una manera tal que convierte en sumamente difícil diferenciar la ficción de la realidad. Puedes no haber rodado un vídeo pornográfico en tu vida, no haber estado jamás en un sitio o no haber dicho nunca una frase determinada, pero eso ya no es obstáculo para que tu imagen sea distribuida apareciendo en un vídeo pornográfico, en un sitio en el que no has estado, o diciendo algo que nunca has dicho.

Como en toda caída de barreras de entrada, se generan espacios de muy difícil definición. Desde un punto de vista estrictamente legal, las consecuencias parecen claras. Pero si añadimos una capacidad para crear este tipo de vídeos completamente distribuida y herramientas para darles una difusión masiva mucho antes de que nadie pueda reaccionar, ese desarrollo legal que supuestamente protege al afectado se convierte en prácticamente irrelevante, porque cuando es capaz de reaccionar, el daño, en muchos casos, ya está hecho, y las imágenes no pueden ser borradas de los cerebros de quienes han sido expuestos a ellas. El valor de un vídeo, de algo que presuntamente sucede ante nuestros ojos, reducido a la de documento que casi cualquiera con cierta habilidad puede crear y manipular, prácticamente sin límites. Toda una necesidad de reeducar a una sociedad no preparada para ello y hacerles entender que aquello que sus ojos están viendo no tiene por qué haber sucedido realmente, y no es necesariamente producto de una maquinaria sofisticada o cinematográfica de efectos especiales, sino que puede haber sigo creado por casi cualquiera.

Curioso mundo este…

 

IMAGE: Dirk Ercken - 123RFUn memorandum del CEO de Microsoft, Satya Nadella a todos los empleados de la compañía anuncia una fuerte reestructuración con mucho sentido aparente que apunta a poner todo el peso estratégico de cara al futuro en dos elementos fundamentales: la inteligencia artificial y la nube. Un movimiento completamente acorde con la evolución tecnológica y con los tiempos que vivimos, que trata de poner en valor a una compañía que ya no es la propietaria del sistema operativo más utilizado, pero a la que le queda muchísimo potencial de contribución al futuro de la tecnología. De hecho, así lo refleja una valoración que, según Morgan Stanley, podría llegar a alcanzar los mil millones de dólares a lo largo de este año 2018, irrumpiendo en una carrera en la que la mayoría tendían a mirar más bien hacia Apple y Google.

Para alcanzar ese objetivo de redefinirse en un mundo en el que la importancia del sistema operativo ha quedado sensiblemente reducida, la compañía degrada la posición estratégica de Windows, el sistema operativo que le permitió convertirse en lo que es hoy: el responsable de Windows, Terry Myerson, abandona la compañía, y su puesto en el primer nivel directivo de la compañía no es sustituido por ninguna otra persona con la palabra “Windows” en su tarjeta. El hasta ahora responsable de Office, Rajesh Jha, entra en ese primer nivel como responsable de una nueva división llamada ahora “Experiences & Devices”, dentro de la que se encuentra Windows.

Entre las prioridades, entender el nuevo papel del sistema operativo en un mundo en el que las experiencias de computación tienen lugar a través de múltiples dispositivos muchos de los cuales no tienen Windows, y por tanto, crear una arquitectura muy abierta y orientada a la nube en la que la compatibilidad con iOS y Android sea un elemento fundamental: da lo mismo qué dispositivo estés utilizando y con qué sistema operativo, pero podrás conectar de manera sencilla con la nube de Microsoft y trabajar con sus algoritmos. Como ya sabemos y hemos comentado desde hace muchísimo tiempo: abierto mejor que cerrado

Como armas fundamentales, una penetración privilegiada en el mundo corporativo, y una muy respetable segunda posición, por detrás Amazon pero por delante de Google, en el mercado del cloud computing, además de una cultura reforzada bajo la batuta de un Satya Nadella que está llevando a cabo la que puede ser, posiblemente, una de las operaciones de reorganización y transformación más ambiciosas e importantes de la historia de la tecnología, tras el desastre y la total pérdida de oportunidades que supuso su nefasto predecesor. Como resultado de la dirección marcada por Ballmer, Microsoft se quedó fuera de revoluciones tan importantes como la búsqueda, los smartphones, el código abierto o las redes sociales, una posición que, lógicamente, dejaba sus posibilidades de futuro sensiblemente reducidas.

Desde aquel panorama, en el que con Ballmer aún en la compañía, una portada de The Economist en 2012 dejó fuera a Microsoft de ese liderazgo tecnológico por el que, según ellos, luchaban Google, Apple, Facebook y Amazon, hasta tener hoy una compañía con brillantes perspectivas financieras, que ha sabido descontar agresiva y rápidamente sus anteriores errores, que está llevando a cabo una muy razonable transformación desde la simple venta de licencias (y anteriormente, cajas de discos envueltas en celofán), y que se transforma para adaptarse y participar de las tendencias más importantes del futuro tecnológico. No soy yo especialmente dado a las entradas laudatorias, pero la lectura del memorandum viene a reafirmar las razones por las que, desde hace ya algún tiempo, muchos hemos vuelto a considerar a Microsoft no solo una compañía muy interesante, sino además, a creer firmemente que cuanto mejor le vaya a la compañía, mejor nos irá a los usuarios y a la evolución del ecosistema tecnológico en general.