IMAGE: Darko Vujic - 123RFDesde su lanzamiento el 1 de abril de 2004, los términos de servicio de Gmail, el servicio de correo electrónico de Google, estuvieron perfectamente claros: espacio prácticamente ilimitado, gestión cómoda y sencilla, buena búsqueda, y totalmente gratuito a cambio de que la compañía escanease de manera automática el contenido de los mensajes para insertar, a su derecha, publicidad personalizada.

En su momento, el lanzamiento de Gmail fue profundamente disruptivo: los correos electrónicos en la web hasta ese momento ofrecían únicamente dos o cuatro megabytes de capacidad, eran auténticas factorías constantes de spam y ofrecían una experiencia de usuario profundamente decepcionante… cuando Google, sin previo aviso, lanzó su correo con un gigabyte y un filtro anti-spam ya entonces espectacularmente bueno. A cambio de un servicio tan diferencialmente bueno, la compañía insertaba publicidad personalizada en función de los contenidos del mensaje: nadie leía tu correo, pero un algoritmo lo escaneaba y escogía en la base de datos de anunciantes que hubiesen optado por esa posibilidad, los anuncios que tenían sentido en función de su temática. La opción, que en su momento recibió numerosas críticas por lo que suponía de cara a la privacidad, ha sido una característica de Gmail desde sus inicios, la manera en la que Google trataba de financiar un producto así.

Ahora, tras trece años de funcionamiento, tras convertirse sin ninguna duda en la mejor forma de gestionar el correo electrónico y tras crecer hasta los 1,200 millones de usuarios en todo el mundo, Google ha decidido eliminar los anuncios en función del escaneado de nuestros correos electrónicos. El servicio seguirá conteniendo publicidad, pero los algoritmos de asignación de la misma se basarán en otra información personal que la compañía obtiene de sus usuarios en función de productos como sus búsquedas en la web o los vídeos que ve en YouTube. La razón oficial para eliminar esta práctica, según el anuncio de la compañía, parece ser el ascenso progresivo del número de clientes corporativos que pagan por el uso de Gmail como parte de G Suite, que no recibían publicidad por tratarse de un servicio de pago, pero que podían sentirse preocupados con esa práctica que veían en el uso de sus cuentas no corporativas.

Una supuesta inquietud que, curiosamente, nunca fue un obstáculo real a su adopción por parte de los usuarios y nunca llevó a la cancelación de la función en los años que el producto lleva en funcionamiento, lo que probablemente indica que la compañía, a lo largo de ese tiempo, ha podido comprobar que la eficacia de esos anuncios administrados en función del contenido del correo electrónico que estábamos leyendo debía ser sumamente baja, y por tanto, la relación coste-beneficio de mantener la práctica se convertía en negativa, y podía ahuyentar a posibles clientes interesados en la herramienta para un uso corporativo. Por otro lado, la decisión indica también una armonización en la manera en que funcionan los diferentes productos de la compañía, y un interés por mejorar su percepción en términos de respeto a la privacidad.

En sus más de trece años de funcionamiento, Gmail ha evolucionado desde su ya inicial posición de ventaja con respecto a otras ofertas para convertirse en uno de los mejores productos que existen, con una interfaz cada vez mejor, unos filtros anti-spam que mejoran día a día y que en muy contadas ocasiones te obligan a rescatar nada de la carpeta correspondiente, y con cada vez más sistemas pensados para hacer el uso más eficiente y que, claramente, corresponden al modelo de “nosotros mismos usamos este producto y eso hace que constantemente se nos ocurran maneras de mejorarlo”. Aún no he comenzado a utilizar las auto-respuestas de correo que Gmail propone mediante algoritmos de machine learning al final de cada mensaje (Smart Reply), pero sí he podido comprobar que, generalmente, tienen mucho sentido.

Desde hace muchos años, la gestión integral de mi correo, tanto personal como corporativo, tiene lugar a través de Gmail, y mi nivel de satisfacción no puede ser más elevado. Ahora, además, hay una razón más para utilizarlo: la controvertida práctica de escanear el contenido del correo de los usuarios para administrarles anuncios contextuales pasa a la historia.

 

IBM "mechanical excavators vs. teaspoons" ad (Saatchi & Saatchi, early '80s)El pasado día 15, un tweet me recordó este anuncio de IBM que aparece en la ilustración, creado por Saatchi & Saatchi a principios de los años ’80: dos personas viendo trabajar una excavadora, el primero lamentándose por las doce personas con palas que podrían estar trabajando ahí, y el segundo recordándole que si se trata de dar trabajo a más personas, ese mismo trabajo podrían hacerlo doscientas personas equipadas con cucharillas de té.

La investigación de la cita nos remite primero al economista norteamericano Milton Friedman en los ’60 y, anteriormente, al político canadiense William Aberhart, que la utilizaron para hacer ver el absurdo de priorizar la generación de puestos de trabajo a la eficiencia. Por supuesto que podemos emplear más personas si lo que les proporcionamos son herramientas inadecuadas, pero en realidad, la finalidad de emplear personas es hacer un trabajo, y todo lo que contribuya a que ese trabajo se haga de manera menos eficiente es, como tal, negativo.

Vivimos tiempos en los que la discusión sobre las máquinas, los algoritmos, los robots o cualquier otra tecnología desplazando a los humanos de sus puestos de trabajo se generaliza cada vez más. ¿Qué van a hacer los pobres taxistas y camioneros cuando los vehículos conduzcan solos? ¿Y los operadores de bolsa cuando sean algoritmos los que compren y vendan acciones? ¡Oh, dios mío, los planificadores de publicidad, ahora que la gran mayoría de la misma es negociada por máquinas en tiempo real! ¡Por no hablar de los operadores de call-center, de servicio al cliente o de las líneas de caja de los supermercados!

Si lo que queremos es mantener puestos de trabajo por encima de todo, demos a estas personas herramientas ineficientes, protejamos su trabajo prohibiendo la entrada de tecnologías, y sigamos trabajando de manera ineficiente. Si alguno se pregunta por qué tiene que pasarse tantas horas haciendo algo que una máquina podría hacer mucho mejor y con menos errores, no nos preocupemos: con una sola pregunta, “¿prefieres estar aquí haciendo un trabajo absurdo, o prefieres estar muerto de hambre en tu casa?” ya le desarmaremos completamente.

Priorizar la generación o el mantenimiento de puestos de trabajo es absurdo una vez que se demuestra que un trabajo puede ser hecho por una máquina con mayor calidad y eficiencia. Simplemente, no tiene ningún sentido. Durante mucho tiempo, hemos ido viendo desaparecer infinidad de puestos de trabajo, simplemente porque una tecnología los convertía en redundantes, en innecesarios, o les hacía perder su sentido. Ahora, el paso de la tecnología se ha acelerado, el número de tareas que una máquina es capaz de hacer mejor que un hombre crece rápidamente, y todos tenemos miedo de ser los siguientes.

Sí, es un problema. Pero su solución nunca estará en impedir el uso de la tecnología o en tasarla con impuestos que la hagan menos competitiva. La solución estará en mejorar la flexibilidad de la preparación de las personas para que puedan hacer otras cosas, en mejorar la educación para que permita que sean más versátiles o se readapten a otras tareas, para que se reinventen profesionalmente, para que busquen otras tareas que sean susceptibles de generar un valor, o, en último término, que tengan una red de seguridad social que les permita no caer bajo el umbral de la pobreza. Soluciones sociales, políticas o educacionales que tienden hacia una redefinición del concepto de trabajo, hacia un trabajo convertido en algo que alguien quiere hacer porque le encuentra sentido y genera un valor para alguien, y que en todo caso resultarán mucho más interesantes que la alternativa absurda de tratar de impedir que la tecnología lo haga. Entre otras cosas, porque en la estructura económica actual, impedir el uso de una tecnología que aporta eficiencia es completamente imposible: siempre habrá una compañía en un país que tenga interés y posibilidad de utilizarla, que adquiera con ello una ventaja competitiva, y que desplace a otras en el mercado.

Sí, los chatbots eliminan puestos de trabajo. Pero también crean otros, y mientras los primeros eran profundamente alienantes, desesperantes, mal pagados y de elevada rotación, los segundos ofrecen posibilidades mucho más interesantes. Y como los chatbots, cualquier otra tecnología que genere eficiencia. Cada vez que nos enfrentemos a una tecnología con el potencial de eliminar puestos de trabajo, preguntémonos cuáles son nuestros grados de libertad ante ello, y sobre todo, de qué lado queremos estar. Solo uno de los dos lados será sostenible.

 

Garry Kasparov vs. Deep Blue

“We have to start recognizing the inevitability of machines taking over more and more tasks that we used to do in the past. It’s called progress. Machines replaced farm animals and all forms of manual labor, and now machines are about to take over more menial parts of cognition. Big deal. It’s happening. And we should not be alarmed about it. We should just take it as a fact and look into the future, trying to understand how can we adjust.”

Garry Kasparov

(“Tenemos que empezar a reconocer la inevitabilidad de que las máquinas se encarguen de más y más tareas que solíamos hacer en el pasado. Se llama progreso. Las máquinas reemplazaron a los animales de granja y a todas las formas de trabajo manual, y ahora las máquinas están a punto de asumir más partes sencillas de la cognición. Gran cosa. Está pasando. Y no debemos alarmarnos por ello. Debemos asumirlo y mirar hacia el futuro, tratando de entender cómo podemos ajustarnos a ello”)

 

La frase es de alguien que, en 1997, vio como una máquina le vencía al ajedrez, el juego en el que había logrado convertirse en campeón absoluto a nivel mundial. La pronunció en una entrevista en la BBC titulada Why the world should embrace AI, en la que se incluye una entrevista en vídeo. La máquina que venció a Kasparov no era inteligente: simplemente, era capaz de calcular escenarios combinatorios y probabilidades con mucha más velocidad y precisión que un cerebro humano. Una simple cuestión de fuerza bruta a la que ya estamos perfectamente acostumbrados, que nos parece perfectamente asumible y que no nos resulta en absoluto insultante.  El ajedrez, por su naturaleza, es particularmente sensible a esa fuerza bruta: es una tarea perfectamente acotada y definida por unas reglas claras e inflexibles, en cuyo desarrollo juega un papel fundamental el análisis de escenarios. Una máquina, sencillamente, posee más capacidad de cálculo que una persona, lo que le permite calcular y contemplar más escenarios.

Desde aquella partida de ajedrez, las cosas han cambiado mucho. Ahora una máquina con capacidad de aprender ya gana a los humanos en juegos de preguntas y respuestas como el Jeopardy, al milenario juego del Go y hasta al poker, pero lo importante no son estos retos y desafíos meramente propagandísticos, sino la posibilidad de aplicar esa capacidad de aprendizaje a muchas otras tareas. Una máquina ya no es simplemente algo capaz de hacer lo que un humano le indica, una tarea repetitiva que es desarrollada más rápido, con más precisión y con menos errores, sino que se ha convertido en algo capaz de hacer cosas que los humanos no son capaces de hacer: aprender de unos datos, desarrollar un modelo que los explica, y llevar a cabo análisis mejores que los que podrían llevar a cabo los humanos que la programaron. No, no va a evolucionar para convertirse en Terminator ni en ningún otro tipo de robot asesino, porque no son inteligentes: simplemente son capaces de llevar a cabo procesos de aprendizaje en tareas muy definidas, con reglas acotadas y escenarios limitados, pero no por ello dejan de tener extraordinarias posibilidades, capaces de separar a las empresas competitivas de las que no lo son.

Garry Kasparov lo sabe. No es cuestión de tratar de detener lo que no puede ser detenido: el progreso es inevitable, y ofrece posibilidades impresionantes. Muy pronto, los conocimientos de machine learning serán el nuevo “manejo de hoja de cálculo” en los curriculum, y habremos pasado de verlo como algo absolutamente especializado y solo al alcance de científicos de datos, para considerarlo algo perfectamente normal, parte del día a día, algo en lo que confiamos para tareas de todo tipo.

Ve preparándote.

 

Me, myself and AI - OECD ForumAyer tuve la oportunidad de participar como discussion leader en la sesión titulada Me, myself & AI encuadrada dentro del Forum de la Organización para la Cooperación y el Desarrollo Económico (OCDE): tres horas de interesantísima discusión en un formato intensamente participativo, en el que tratamos la evolución y el futuro de una escenario definido cada vez más por algoritmos de machine learning aplicados a todo tipo de ámbitos.

Europa Press recogió algunos de mis posicionamientos durante el foro, en una noticia que han titulado “Dans (IE) insta a las empresas a reorganizar su actividad en torno a los datos para ser competitivas” y que hoy aparecen reflejados en diversos medios: la necesidad de orientar la actividad de las compañías a la obtención de datos, con el fin de poder alimentar algoritmos que nos doten de capacidad de gestión eficiente, rápida y diferencial. Estamos aún muy lejos del desarrollo de una inteligencia artificial de propósito general como tal, pero los algoritmos de machine learning van posicionándose cada vez más como soluciones óptimas para un número creciente de tareas, y además, han disminuido enormemente sus barreras de entrada. La aparición de plataformas de Machine Learning as a Service (MLaaS) y los movimientos de las grandes compañías tecnológicas para posicionarse en ese ámbito mediante la adquisición de startups con actividad en ese área están determinando un escenario que cada vez tiene más influencia a la hora de definir la competitividad de las compañías: los algoritmos de machine learning definen qué productos son ofrecidos a qué clientes potenciales, políticas de pricing, prevención del abandono o churn, detección de posible actividad fraudulenta, opciones en la determinación del marketing mix, y cada vez más cosas.

Pero más allá de este tipo de cuestiones, con indudable influencia en la actividad de las compañías a día de hoy, y sin caer en el hype y la desinformación que supone pensar que ya vivimos rodeados de inteligencia artificial, la oportunidad de participar en un foro como el de ayer, con especialistas de diversas compañías, personas que llevan años desarrollando algoritmos en aspectos como procesamiento del lenguaje o visión computerizada, o con políticos que están tomando decisiones que condicionan las posibilidades de actuación de las compañías resulta verdaderamente interesante. Entre las cuestiones que discutimos en el foro estuvieron, entre otras, como estructurar las variables dependientes que un algoritmo debe optimizar (y qué supone optimizarlas), la necesidad de pensar el la articulación de un nuevo sistema operativo en el que se desarrollarán muchas partes significativas de la actividad humana, o la interacción entre algoritmos y personas. En mi intervención, intenté plantear ese tipo de cuestiones como si fueran un lenguaje de programación: cuáles serían las variables a definir y cómo se definen, cómo se estructuran los condicionales, y cómo generamos bucles que ofrezcan un control de la actividad resultante, además de tocar las necesidades de preparación de las personas y las habilidades que vamos a tener que desarrollar de cara a ese entorno, en una entrevista que publicaré en cuanto esté disponible. También surgieron interesantes discusiones en torno a temas éticos, a posibles conflictos entre las decisiones de un algoritmo y las de una persona, o a los posibles sesgos que pueden generar.

Este tipo de foros de la OCDE tienen una gran importancia de cara al desarrollo de líneas de pensamiento que influencian el entorno legislativo y las decisiones de actores de muy diversos tipos en empresas, gobiernos y organismos de todo tipo. Agradezco enormemente a la OCDE la oportunidad de participar. En cuanto tenga disponible más materiales sobre la jornada, los iré añadiendo a la entrada.

 

 

Tecnología y perspectiva - Capital (pdf)

Jordi Benítez, de Capital, me pidió una columna con motivo de los doscientos números de la revista, en la que intentase aplicar un poco de perspectiva a la evolución tecnológica que hemos vivido en lo que llevamos de siglo. El resultado se titula precisamente así, “Tecnología y perspectiva” (pdf), y está disponible en el número de este mes.

El encargo me hizo cierta ilusión: Jordi se incorporó a Capital allá por el año 2000, precisamente cuando yo volvía de California tras terminar allí una estancia de cuatro años para obtener mi doctorado, hemos colaborado en bastantes ocasiones, y la columna representaba la oportunidad para revisar diecisiete años trepidantes y dinámicos de historia reciente, de una historia de la que él como periodista y yo como académico nos hemos dedicado a ser cronistas.

¿Qué decides destacar cuando tienes setecientas palabras para resumir diecisiete años en los que no has parado de escribir de manera prácticamente compulsiva? Tras darle unas cuantas vueltas, mi decisión fue tomar como referencias evolutivas tres momentos que considero especialmente significativos: la revolución que supuso la llegada de las puntocom y su posterior crisis, los múltiples exponentes de resistencia al cambio por parte de industrias establecidas, y finalmente, el despertar del machine learning. En esos tres epígrafes están sin duda los elementos que más entradas o artículos me han llevado a escribir a lo largo de estos años.

A continuación, el texto completo de mi columna:

Tecnología y perspectiva

Hacer memoria y retrotraernos a lo que la tecnología significaba hace tiempo no es un ejercicio sencillo: el escenario se mueve a tal velocidad, que hace difícil mantener elementos de referencia: si los tenemos, seguramente es porque estamos obsoletos, y que nos aferramos a esas referencias porque cambiar es algo que, sencillamente, nos da pereza. 

En mi caso, echar la vista atrás hasta el año 2000 es sencillo, porque fue un año importante para mí. Tras cuatro años viviendo en una California efervescente, volvía a España con mi título de doctor bajo el brazo, y me encontraba con que podía, en virtud de mi experiencia en un mercado reconocido como más avanzado y mi preparación como académico, escribir sobre los efectos de la tecnología y su adopción. Aunque nunca pretendí ganarme la vida con ello – la mayoría de mis colaboraciones con medios eran entonces gratuitas – sí me ha permitido mantener un registro escrito fiel de mis ideas, mis preocupaciones, y también mis – por supuesto – obsesiones, en relación con la evolución del entorno tecnológico. Diecisiete años escribiendo dan mucho de sí.  

Entiendo la tecnología como un entorno de un dinamismo brutal, en el que los cambios suceden a una velocidad impresionante. El final de siglo y la entrada del nuevo nos demostró precisamente eso: la crisis de las puntocom fue vista por muchos como una especie de “enmienda a la totalidad”, como si aquello fuese todo “una patraña” y nada tuviese importancia. Aquellos años se caracterizaron por una visión cercana a la de la magia, a la de la sorpresa, al “mira estos chicos tan ingeniosos, lo que han sido capaces de hacer y cuánto dinero han ganado”, como si fuese así, un chasquear de dedos y ya has montado una puntocom.

La realidad era otra. La supuesta magia era en realidad un trabajo intenso, horas de teclado, y la habilidad de convertir ideas en código ejecutable. Con el tiempo, en algunos países han entendido ya la inmensa importancia de la programación de cara al futuro, de entender que vivimos completamente rodeados de objetos programables, y que aprender a programar es tan fundamental como entender Física o Biología: una forma de aprender a vivir. En España, desgraciadamente, seguimos sin tenerlo claro, y las sucesivas reformas educativas se han enfocado… a otros temas. 

La “magia” de entonces dio paso a la inadaptación. Gran parte de lo que escribimos en la primera década del siglo representaba la constatación de que nuevas formas de hacer las cosas desplazaban a las antiguas, y de cómo los afectados trataban de resistirse a ello. Aquellos intentos de resistirse inútilmente al progreso nos mantuvieron entretenidos buena parte de la década: las empresas de contenidos y su insistencia en que los usuarios éramos malvados y perversos, en lugar de tratar de proporcionarnos sus productos en las condiciones que demandábamos. Con el tiempo, hemos entendido que el problema no nunca estuvo en los usuarios ni en la tecnología, sino en la palmaria falta de visión de unas compañías que pretendían que, en un mundo que había cambiado, todo se siguiese haciendo como ellos decían y de ninguna otra forma, algo que el tiempo probó completamente insostenible.

El avance del siglo nos trajo, sobre todo, la evidencia de que Gordon Moore, cofundador de Intel, era un genio, y que la aplicación de su ley nos permitía disfrutar de ordenadores cada vez más potentes y más pequeños. Tan potentes y pequeños que empezamos a ponerlos en todas partes, incluso en sitios insospechados, para dar lugar a la internet de las cosas. Y con todas esas cosas conectadas y generando datos, comenzamos a darnos cuenta de que nuestras capacidades analíticas se sublimaban, y que el aprendizaje y la inteligencia dejaban de ser patrimonio del ser humano: llegamos a la que, para mí, es la revolución más importante de lo que llevamos de siglo: el machine learning y la inteligencia artificial. 

Para mí, esos son los tres elementos que marcan mi perspectiva de este siglo: las puntocom, la resistencia al progreso y el machine learning como clave del futuro. Y en esas seguimos. Han sido diecisiete años trepidantes, rápidos, brutales. Y aún así, no son nada comparados con los maravillosos años que están por venir…