Guerra digital - Cambio

Lucía Burbano, de la revista mexicana Cambio, me envió algunas preguntas por correo electrónico acerca del fenómeno de las fake news y sus cada vez más habituales usos organizados, y ha incluido una parte de ellas en su artículo titulado “Guerra digital” (ver en pdf), publicado hace una semana.

Hablamos sobre el uso de este tipo de herramientas de desinformación en esferas militares o en la política, de las posibilidades que tenemos para diferencias noticias verdaderas de noticias falsas en un entorno en el que las barreras a la publicación descienden para todos, del papel de los llamados verificadores o fact-checkers y de la responsabilidad de las propias redes sociales, del uso creciente de bots y herramientas basadas en inteligencia artificial, y de la necesidad de desarrollar el pensamiento crítico a través de la enseñanza para intentar enfrentarnos a esta problemática en el futuro.

Precisamente hoy aparecen noticias sobre el gobierno indio que, ante la escalada de linchamientos y palizas a ciudadanos inocentes derivados de rumores maliciosos difundidos a través de WhatsApp en determinadas zonas rurales (que incluso llegaron a provocar, en algunos casos, la suspensión temporal del acceso a internet en regiones completas), reclama a la compañía que detenga estos rumores, como si realmente fuese el papel de un canal de comunicación decidir sobre la veracidad o falsedad de las conversaciones que se desarrollan a su través. ¿Pediría seriamente ese ministro a una compañía telefónica que detuviese las conversaciones entre sus abonados “si dicen mentiras”? Basta con esa comparación para entender la barbaridad de la que estamos hablando: WhatsApp no solo es un canal de comunicación equivalente a una compañía telefónica, sino que, además, gestiona la información que se intercambia a su través con protocolos robustos de cifrado, con claves de un solo uso que ni siquiera la propia compañía conoce, lo que convierte en prácticamente imposible cualquier tipo de monitorización preventiva. La compañía podrá intentar colaborar, pero realmente, el problema únicamente se puede solucionar, y no de manera completa, cuando se incida en el desarrollo del pensamiento crítico desde las primeras etapas de la educación, con campañas de información o con mensajes que inviten a la población a comprobar la veracidad de sus fuentes.

A continuación, siguiendo mi práctica habitual, el texto completo del cuestionario que intercambié con Lucía:

P. ¿Es la propaganda digital una continuación de los métodos empleados tradicionalmente en el ejército y la política? O las características de la red (velocidad y facilidad para compartir un mensaje, omisión de fuentes o falta de verificación de las mismas) hace que cuando hablamos de la manipulación intencionada del mensaje, este sea más peligroso?

R. En realidad, hablamos del aprovechamiento de una vulnerabilidad de nuestra sociedad: hemos desarrollado una serie de herramientas, las redes sociales, que cuentan con sus propios códigos y mecanismos para remunerar la participación, tales como Likes, comentarios y número de seguidores, pero hemos renunciado a educar a la sociedad en su uso. Durante generaciones, hemos acostumbrado a la sociedad a que si algo estaba en letra impresa o salía en televisión, era confiable, y ahora nos encontramos con un descenso brutal en las barreras de entrada a la publicación, con un porcentaje cada vez más elevado de personas que acceden a las noticias a través de herramientas como Facebook o Twitter, y con una indefensión de una sociedad que nunca ha desarrollado el pensamiento crítico. Las redes sociales pueden desarrollar mecanismos para intentar mejorar la situación, pero la gran realidad es que el problema solo se solucionará generacionalmente, y únicamente si incorporamos en la educación mecanismos para desarrollar el pensamiento crítico, la comprobación de fuentes, la verificación de información, etc. que a día de hoy, únicamente se enseñan en las facultades de periodismo.

 

P. Las líneas entre una noticia verdadera y una falsa están cada vez más difuminadas. ¿Cómo podemos distinguirlas para evitar que la manipulación o desinformación gobiernen las decisiones del ciudadano/votante? ¿Somos inmunes a la manipulación? ¿O el componente subjetivo y emocional de muchos de los debates e informaciones falsas que se comparten en la red es tan elevado que estamos perdiendo la capacidad de ser más críticos?

R. Cuando las barreras de entrada a la publicación descienden drásticamente, el papel de la credibilidad y la reputación de las fuentes crece. En general, tenemos que aprender a desarrollar el pensamiento crítico, lo que implica verificar la fuente, tratar de localizar referencias adicionales, contrastar con otras fuentes, etc. El problema es que desde nuestra educación más básica, partimos de contarle a los niños que “la verdad” está en las páginas de un libro, en una única fuente, y eso lleva a que no dominen herramientas como la búsqueda, y tiendan a quedarse, por ejemplo, sistemáticamente con el primer resultado de Google, sin más reflexión. Tendríamos que prohibir los libros de texto, introducir el smartphone en el aula, y pedir a los niños que buscasen los contenidos en la red, para así educarles en estrategias de búsqueda, cualificación de fuentes y desarrollo de pensamiento crítico. Esa modificación de la enseñanza resulta cada vez más importante, y un auténtico reto que tenemos como sociedad.

 

P. Existen varios servicios o sitios web que identifican las noticias e informaciones que son falsas. ¿Cómo funcionan y son la solución?

R. Los fact-checkers o verificadores son una buena solución, pero lamentablemente, dado que trabajan con personas, tienden a ser lentos, válidos para una verificación con perspectiva o para parar la difusión de un rumor, pero no para evitar que se inicie o que se difunda durante un tiempo. Su importancia es creciente, pero no sustituyen al desarrollo de un juicio o pensamiento crítico.

 

P. Dado que las redes sociales y otras plataformas cuentan con un número de usuarios superior al de cualquier medio de comunicación tradicional o digital, ¿deberían estas empresas monitorear, eliminar o sancionar de forma más exhaustiva a los usuarios que propagan la desinformación o que generan cuentan falsas?

R. Las redes sociales pueden llevar a cabo muchas acciones correctoras, como controlar, por ejemplo, la difusión de rumores, falsedades, o mensajes relacionados con el discurso del odio. Sin embargo, es peligroso confiar en las acciones de estas compañías, dado que hacerlo equivale a ponerlas en una posición de árbitros que no les debería corresponder, y menos cuando hablamos de cuestiones que tienen que ver con el pensamiento o la opinión. Obviamente, las compañías que gestionan las redes sociales deberían evitar acciones coordinadas o comportamientos marcadamente antisociales, como deberían evitar la difamación, la calumnia o el libelo, pero eso no es tan sencillo como parece en un entorno social. Del mismo modo que no podemos controlar lo que una persona le dice a otra en la barra de un bar, resulta difícil pensar que podamos hacerlo con todas las comunicaciones en redes sociales: habrá que diferenciar el ámbito y el tipo de comunicación, la intencionalidad, la escala a la que se produce y, sobre todo, educar a la sociedad en el uso de su herramienta, con todo lo que ello conlleva.

 

P. ¿Cuándo empezaron a emplearse la Inteligencia Artificial y los algoritmos para crear bots? ¿Por qué son estos tan dañinos y no se contrarrestan con las mismas armas?

R. Los bots no son necesariamente dañinos. Hay bots muy útiles, muy interesantes, y estarán en nuestra vida en el futuro con total seguridad: muchas de nuestras interacciones a lo largo del día tendrán un chatbot o bot conversacional al otro lado. Lo que puede ser dañino es el uso de la tecnología para crear bots que simulen usuarios reales: es un fraude, supone un problema de gestión para las compañías que gestionan las redes o para las que se anuncian en ellas, y nos pone en una situación similar a la de la película Blade Runner, con compañías desarrollando bots fraudulentos y otras compañías tratando de detectarlos mediante todo tipo de tecnologías basadas en machine learning e inteligencia artificial. Al principio, los bots eran simples cuentas que seguían a un usuario,. Cuando se las empezó a descartar por inactivas, empezaron a desarrollar pautas de actividad más o menos aleatorias, como seguir a otros usuarios, retuitear o dar Like a algunas publicaciones, etc. Ahora, su actividad es cada vez más difícil de prever, y por tanto, son más difíciles de identificar. Eso supone una “escalada armamentística” en el desarrollo de machine learning cuyo resultado no es fácil de prever.

 

P. Algunos de estos mensajes se propagan desde los propios gobiernos con el fin de desestabilizar procesos electorales en otros países. Aunque las injerencias políticas no son nada nuevo, dado que el sector digital se mueve más rápido que el sistema legal, ¿nos encontramos ante una nueva tipología de crisis diplomática?

R. Sin duda, es un arma que muchos estados están utilizando, unos con más escrúpulos que otros, y que habría que tratar como un problema serio. Que un presidente de los Estados Unidos se comporte como un troll impresentable y carente de todo sentido común en las redes sociales es mucho más que una anécdota, supone un problema serio, y debería llevarnos a revisar las reglas de la diplomacia. Que algunos países consideren razonable atacar las infraestructuras de otros o lanzar campañas de manipulación a través de la red supone algo muy serio, que es preciso elevar al estatus de conflicto internacional, y apelar a los foros más importantes en este ámbito.

 

P. Pensando en clave futuro, ¿la propaganda digital va a seguir creciendo y evolucionando o entrarán en escena mecanismos de censura o filtros que diluyan su presencia?

R. La propaganda digital y las fake news persistirán hasta que, como sociedad, seamos capaces de desarrollar mecanismos de pensamiento y razonamiento crítico, de introducirlos en el curriculum educativo y de convertirlos en un cimiento de la interacción social.

 

IMAGE: DavidRockDesign / CC0 Creative CommonsLa presentación de una tecnología experimental, Google Duplex en la conferencia de apertura del Google I/O 2018 parece no haber dejado indiferente a nadie. Inmediatamente tras la demostración de dos llamadas para hacer reservas, una en una peluquería y otra en un restaurante, llevadas a cabo por un asistente con dos voces distintas que resultado completamente imposible identificar como no humanas, ha surgido una fuerte corriente de rechazo que considera a la compañía “insensible”, “inquietante” o incluso “horripilante (…) éticamente perdida, sin timón e incapaz de aprender de sus errores“.

La reacción es tristemente primaria: ante una conversación entre una máquina y una persona, el observador humano asume inmediatamente una identificación con el participante humano, y rápidamente pasa a pensar que el hecho de que esté hablando con una máquina sin saberlo es algún tipo de ofensa, un  insulto a su capacidad de discernimiento, o incluso algún tipo de abuso… cuando en realidad, lo que quiere el humano al otro lado del hilo es vender, y lo que hará en cuanto le sea posible será poner a su vez a otro agente automatizado al otro lado. Vamos a ver: ¿alguna vez han tenido algún tipo de problema las empresas en engañar a sus clientes y hacerles pensar que hay un humano al otro lado cuando no lo hay? No, jamás. El rosario de torpes intentos de hacer pasar interacciones como humanas va desde las robocalls automatizadas hasta los mail merge, pasando por lo que se nos ocurra. Si una compañía puede ahorrarse costes – porque ni siquiera, en la mayor parte de las ocasiones, se han planteado hacerlo para mejorar la experiencia del cliente o para incrementar su fidelidad – haciendo pasar a un robot por un humano, no lo dudemos: lo hará, sin plantearse ningún tipo de dilema ético. En gestión empresarial, los costes lo justifican todo, y pocas veces nos escandalizamos por ello.

Lo que más me puede preocupar de Google Duplex es, precisamente, su uso empresarial: su posible aplicación al telemarketing por parte de empresas irresponsables (el perfecto empleado al que no le importa repetir la llamada cien veces, no se desmotiva cuando lo rechazas y tiene un argumentario infinito ideado mediante machine learning a partir de millones de llamadas) y la evidencia de que siempre hay una empresa con un directivo suficientemente imbécil como para hacer lo que nadie con un mínimo de sentido común o inteligencia haría. Y sin embargo, lo que nos encontramos inmediatamente es a un puñado de usuarios bienpensantes que se preocupan por la ética de que el empleado de una compañía no sepa si está hablando con un posible cliente o con su asistente robótico…

Ante la corriente de críticas y las peticiones de hacer obligatorio que los robots se identifiquen como tales en sus conversaciones, la compañía ha asegurado que hará precisamente eso: incluirá un disclosure en el asistente, algún tipo de advertencia inicial que deje claro a quien esté al otro lado que está hablando con un asistente robótico. Quien sabe, a lo mejor tendremos que pasar un captcha o un test de Turing para demostrar que somos humanos antes de empezar una llamada. Algo que, muy posiblemente, hará que funcione peor y se convertirá en una excusa para que, conociendo la habitual estupidez humana, las peticiones que hagamos a través de nuestros asistentes sean consideradas como “de segunda”, reciban un peor trato, o incluso se utilicen como pretexto cuando haya un error… que por supuesto, vendrá invariablemente de la parte humana (¿o no llevamos años “echando la culpa al ordenador” cuando nos da la gana para justificar lo injustificable?) Es, sencillamente, es-tú-pi-do, así, com todas sus sílabas: se crea una tecnología para hacernos la vida más sencilla y llevar a cabo esas interacciones que tanto nos molesta hacer a nosotros mismos, pero vamos nosotros y nos preocupamos por los derechos del humano al que le toca levantar el teléfono, pobrecito, que ahora no va a saber si está hablando con otro humano o con una máquina…

Repito: lo que quiere el humano que levanta el teléfono es VENDER. De la manera más rápida y eficiente posible. Si hablar con un asistente, dado que es más eficiente y comete menos errores que el torpe de su amo, hace que surjan menos problemas y que la transacción tenga lugar con menos fricción, mejor aún. El dilema ético de si el empleado sabe si habla con una máquina o no es un dilema ético de andar por casa, un problema inventado y absurdo, y de hecho, la compañía sustituirá a ese empleado por un asistente robótico en cuanto tenga la mínima oportunidad, y no se preocupará lo más mínimo de si el que llama sabe o no que habla con un robot – salvo si vende menos. No, al empleado no le va a pasar nada: no va a tener problemas psicológicos, no va a experimentar efectos secundarios y no se va a enamorar de la voz que le llama (y si lo hace, peor para él). Estamos magnificando un problema que no existe. Si acaso, habrá que plantearnos, y más pos curiosidad sociológica que porque haya ningún problema, cómo evolucionarán las normas y protocolos sociales en un mundo en el que la voz de las máquinas es indiscernible de la de las personas, o si es sostenible que muchos humanos a la vez utilicen a su incansable asistente para peticiones sobredimensionadas, exhaustivas o que jamás tendría sentido que se plantease hacer una persona.

Ante una tecnología en su fase experimental, saltar y rasgarse las vestiduras con la violación de los supuestos derechos de una persona porque, pobrecita, no sabe que está hablando con una máquina es, en mi opinión, una soberana estupidez. Desarrollemos la tecnología sin cortapisas, veamos qué problemas emergen de su uso, e intentemos corregirlos introduciendo mejoras de manera paulatina mediante ensayo y error. Así funciona el progreso, no con mentes bienpensantes que saltan histéricas a la mínima pretendiendo que “es inmoral” que nos llame una máquina “porque no sabemos que lo es”. Si no te gusta el asistente robótico de Google, no lo uses. Pero déjanos en paz y no plantees absurdos dilemas morales a los que le estamos deseando sacarle partido, por favor.

 

IMAGE: Alex Millos - 123RFEl concepto del advance fee fraud, o 419 scam (conocido así por el artículo del código penal nigeriano correspondiente al fraude) es casi tan antiguo como la propia internet, pero si nos atenemos a su abundancia, parece evidente que siguen existiendo incautos que caen en él y que, posiblemente por vergüenza, no llegan nunca a denunciarlo.

La idea es completamente simple: recibes un correo que te ofrece una cantidad de dinero (una herencia, un depósito que se pretende sacar de un país corrupto, un premio de lotería que nos ha correspondido por un supuesto error, etc.) y que, en caso de ser contestado, pasa a reclamar progresivamente pequeñas cantidades en concepto de gastos que van siendo entregadas a cuenta de un pago que, obviamente, nunca llega a producirse. En el fondo, pura aritmética: enviar el timo en forma de correo indiscriminado resulta tan barato, que con que sea capaz de obtener una respuesta de un incauto entre varios millones, el esquema ya resulta rentable.

A cuenta de las famosas estafas hemos visto de todo: personas que se dedican a intentar hacer perder tiempo o recursos a los estafadores – un “deporte” que hasta tiene nombre, scam baiting – o incluso sitios ya famosos como 419-eaters, dedicados a ridiculizarlos. Ahora, llega lo último en lucha contra los timadores: una organización sin ánimo de lucro neozelandesa, Netsafe, diseña un asistente conversacional, un chatbot, que contesta a ese tipo de mensajes mediante elaborados esquemas conversacionales en los que se hace pasar por una posible víctima, destinados a hacer perder el tiempo al timador con respuestas dilatorias que – obviamente – no van a ningún sitio, y que únicamente tratan de distraerlo para conseguir que incurra en un gasto de recursos y de paciencia.

El asistente se denomina Re:scam, tiene cuatro modelos básicos utilizados habitualmente por los estafadores – el de la cuenta bancaria, el del supuesto heredero, el de la transferencia y el de las fotografías comprometedoras – y basta con reenviarle el correo recibido para activar la contestación, con la promesa de que la cuenta de correo original que recibió el mensaje nunca será utilizada en el intercambio con el estafador. Tras comprobar que el correo es efectivamente un intento de estafa, la herramienta pasa a responder. Algunas de las respuestas, en las que se pretende hacer pasar al remitente por una persona mayor, incauta o ingenua susceptible de caer en la estafa, resultan verdaderamente graciosos, y en algunos casos, se logra mantener al estafador entretenido durante cuatro o cinco rondas de conversación. Como hace años comentaba Michael Berry, el fundador de 419-eater, “cada minuto que el estafador gasta comunicándose conmigo es un minuto que no está estafando a otra víctima”. 

No sé si es la mejor manera de responder a este tipo de esquemas  – por lo general lo más práctico es simplemente ignorarlos, y más teniendo en cuenta que los filtros anti-spam mejoran cada día más y que si quieres leer esos mensajes te tienes que ir a buscarlos específicamente al fondo de la carpeta correspondiente – pero sí es una prueba interesante de cómo mejoran ese tipo de asistentes conversacionales y cómo pueden hacerse funcionar configurándolos con un propósito determinado. En realidad, se trata de un intento de romper la aritmética del sistema: si logras que contestar a esos correos sea tan barato y automatizado como enviarlos, y consigues que cada respuesta obligue al estafador a incurrir en costes adicionales y atención personal, puedes llegar supuestamente a convertir el sistema en absurdo. Por lógica, supongo que esto acabará en que los propios estafadores tengan también robots conversacionales contestando esos mensajes de manera automática con correos preformateados, y a que se genere una conversación completamente absurda y eterna entre dos máquinas intentando timarse una a la otra. Pero en último término, lo de intentar “timar al timador” resulta hasta terapéutico… :-)

 

PolitibotPolitibot es un proyecto de chatbot conversacional de noticias, creado, en principio como experimento, por un grupo de periodistas y tecnólogos españoles, y que actualmente funciona sobre dos herramientas de mensajería instantánea, Facebook Messenger y Telegram.

Politibot no es un robot “inteligente”, en el sentido de que no tiene interfaz de procesamiento de lenguaje natural: simplemente ofrece algunas alternativas para que el usuario escoja una respuesta de entre las disponibles en un menú. En algunas ocasiones ofrece varias alternativas en forma de menú, y plantea diferentes respuestas o rutas conversacionales en función de la opción escogida por el usuario, en otras ocasiones simplemente ofrece una respuesta, con el fin simplemente de simular una interfaz conversacional y romper la dinámica de suministro de información lineal. La idea es proporcionar una interacción con una noticia que se sale de la tradicional lectura, y se convierte en una experiencia de uso diferente, en la que el usuario tiene la sensación de interacción con una entidad que le va proporcionando información en pequeñas dosis.

En conversaciones con Eduardo Suárez y María Ramírez, dos de sus creadores, a quienes conocí en el proyecto original de El Español, llegué incluso a presentarles a mis amigos de BigML, con la idea de dotar a esa interfaz conversacional de unas prestaciones analíticas superiores que permitiesen más grados de libertad en la conversación, pero en realidad, una interfaz conversacional más sofisticada plantearía problemas porque convertiría la interacción en un desarrollo sensiblemente más sofisticado que excedería las pretensiones de la aplicación. Porque, en realidad, lo que pretende Politibot es simplemente que leas una noticia de una manera distinta a como la leerías en un texto plano o con ilustraciones, y que interactúes con la información de una manera más amena y provechosa, generando un nivel de absorción superior.

La idea, básicamente, tiene mucho que ver con aquella frase de Confucio que todos los profesionales de la educación conocemos:

“Me lo contaron y lo olvidé; lo vi y lo entendí; lo hice y lo aprendí.” 

Si simplemente te cuentan o lees un un contenido, el nivel de retención es menor que si te implicas en él con una conversación, incluso si esa conversación es simulada y se reduce a escoger unas pocas opciones. Y tras unas cuantas semanas de consumo de noticias en Politibot, generalmente tan solo una al día, la experiencia refleja exactamente eso: si Politibot me ofrece, por ejemplo, la oportunidad de “conversar” sobre las elecciones francesas, yo paso de no tener ni idea de quién era quién en el proceso electoral del país vecino, a tener una idea bastante aproximada del mapa político, de las encuestas o de las propuestas de cada candidato, todo ello en un ratito de interacción, y hasta el punto de sentirme incluso con cierta confianza a la hora de plantearme una conversación sobre el tema. Politibot no se limita a “contarte” una noticia, sino que te va ofreciendo detalles de la misma – frases, gráficos, podcasts, noticias y titulares de otros medios, etc. – de manera que construye un relato en el que el usuario juega un papel algo más activo, se siente más implicado, y retiene mejor el contenido. Aunque sea simplemente por el hecho de que se le pide que presione un botón entre frase y frase.

Las implicaciones de un proceso así son múltiples: en primer lugar, de cara a procesos en los que se busca una relación diferente con la información, tales como los habituales en educación. Que mis alumnos retienen mejor un tema complejo cuando interactúan con él frente a cuando simplemente se lo cuento o les asigno una lectura de un artículo es algo que sé desde hace mucho tiempo, pero ahora veo que sería  hipotéticamente posible plantear un simple patrón de interacción sencillo, y mejorar con ello la retentiva y la comprensión del mismo, algo que ya planteamos en algunas simulaciones y juegos empresariales.

En segundo lugar, la interfaz: realmente hay días en los que el aviso de Politibot y su ya habitual saludo, “hola humano”, me resultan muy agradables: no sé si llegaré a plantearme que Politibot es un amiguete (en mi caso, resulta razonable, porque no dejo de imaginarme a mis amigos Eduardo o María detrás de la creación de la noticia), o incluso, si alguien podría llegar a “enamorarse” de un chatbot como ocurría en Her, pero la idea no me parece completamente fuera de límites :-) Y todo ello, gracias a una interfaz que no hay que desarrollar, porque realmente la toma prestada de un canal, la mensajería instantánea, con el que ya tenemos total familiaridad, y una app que ya teníamos instalada, en lugar de pedirnos que nos familiaricemos con una nueva interfaz o que nos instalemos una app más.

En tercer lugar, las posibilidades de manipulación o de adoctrinamiento vinculadas con una interfaz así, no en el caso de Politibot, que me parece sumamente equilibrado y plural, pero sí en el de otros posibles desarrollos: en principio, cuanta más pluralidad en los orígenes de la información se planteen en la lectura o en el análisis de una noticia, menor debería ser el margen para el adoctrinamiento, pero indudablemente, una interfaz así plantea una posibilidad de hacer determinada información más palatable simplemente gracias a algo tan humano como una conversación.

En cualquier caso, Politibot supone para mí una muy interesante constatación de las posibilidades de las interfaces conversacionales o chatbots a todos los niveles, tanto de cara a mi trabajo como analista tecnológico, como incluso planteadas en mi desarrollo profesional como profesor. El valor de una interfaz conversacional de cara a la retención y asimilación de la información suministrada, entendido tras un buen montón de conversaciones diarias que han definido temáticas sobre las que, tras esa conversación, tengo la sensación de “saber más” y “encontrarme más cómodo”. Todo ello, gracias simplemente a una interfaz simple y a unas opciones triviales que me convierten en parte aparentemente activa en una conversación.

Los chatbots se están convirtiendo en una interfaz muy interesante que muchos aspiran a utilizar para muchas funciones, y no es especialmente sorprendente: Politibot es la prueba de que no es necesario plantear una elevada sofisticación técnica ni un procesamiento de lenguaje natural especialmente ambicioso para obtener resultados sorprendentemente buenos. Leer una noticia, frente a implicarse en ella, aunque sea de forma muy superficial. Tiempo de pensar en las múltiples posibilidades de algo así.

 

IBM "mechanical excavators vs. teaspoons" ad (Saatchi & Saatchi, early '80s)El pasado día 15, un tweet me recordó este anuncio de IBM que aparece en la ilustración, creado por Saatchi & Saatchi a principios de los años ’80: dos personas viendo trabajar una excavadora, el primero lamentándose por las doce personas con palas que podrían estar trabajando ahí, y el segundo recordándole que si se trata de dar trabajo a más personas, ese mismo trabajo podrían hacerlo doscientas personas equipadas con cucharillas de té.

La investigación de la cita nos remite primero al economista norteamericano Milton Friedman en los ’60 y, anteriormente, al político canadiense William Aberhart, que la utilizaron para hacer ver el absurdo de priorizar la generación de puestos de trabajo a la eficiencia. Por supuesto que podemos emplear más personas si lo que les proporcionamos son herramientas inadecuadas, pero en realidad, la finalidad de emplear personas es hacer un trabajo, y todo lo que contribuya a que ese trabajo se haga de manera menos eficiente es, como tal, negativo.

Vivimos tiempos en los que la discusión sobre las máquinas, los algoritmos, los robots o cualquier otra tecnología desplazando a los humanos de sus puestos de trabajo se generaliza cada vez más. ¿Qué van a hacer los pobres taxistas y camioneros cuando los vehículos conduzcan solos? ¿Y los operadores de bolsa cuando sean algoritmos los que compren y vendan acciones? ¡Oh, dios mío, los planificadores de publicidad, ahora que la gran mayoría de la misma es negociada por máquinas en tiempo real! ¡Por no hablar de los operadores de call-center, de servicio al cliente o de las líneas de caja de los supermercados!

Si lo que queremos es mantener puestos de trabajo por encima de todo, demos a estas personas herramientas ineficientes, protejamos su trabajo prohibiendo la entrada de tecnologías, y sigamos trabajando de manera ineficiente. Si alguno se pregunta por qué tiene que pasarse tantas horas haciendo algo que una máquina podría hacer mucho mejor y con menos errores, no nos preocupemos: con una sola pregunta, “¿prefieres estar aquí haciendo un trabajo absurdo, o prefieres estar muerto de hambre en tu casa?” ya le desarmaremos completamente.

Priorizar la generación o el mantenimiento de puestos de trabajo es absurdo una vez que se demuestra que un trabajo puede ser hecho por una máquina con mayor calidad y eficiencia. Simplemente, no tiene ningún sentido. Durante mucho tiempo, hemos ido viendo desaparecer infinidad de puestos de trabajo, simplemente porque una tecnología los convertía en redundantes, en innecesarios, o les hacía perder su sentido. Ahora, el paso de la tecnología se ha acelerado, el número de tareas que una máquina es capaz de hacer mejor que un hombre crece rápidamente, y todos tenemos miedo de ser los siguientes.

Sí, es un problema. Pero su solución nunca estará en impedir el uso de la tecnología o en tasarla con impuestos que la hagan menos competitiva. La solución estará en mejorar la flexibilidad de la preparación de las personas para que puedan hacer otras cosas, en mejorar la educación para que permita que sean más versátiles o se readapten a otras tareas, para que se reinventen profesionalmente, para que busquen otras tareas que sean susceptibles de generar un valor, o, en último término, que tengan una red de seguridad social que les permita no caer bajo el umbral de la pobreza. Soluciones sociales, políticas o educacionales que tienden hacia una redefinición del concepto de trabajo, hacia un trabajo convertido en algo que alguien quiere hacer porque le encuentra sentido y genera un valor para alguien, y que en todo caso resultarán mucho más interesantes que la alternativa absurda de tratar de impedir que la tecnología lo haga. Entre otras cosas, porque en la estructura económica actual, impedir el uso de una tecnología que aporta eficiencia es completamente imposible: siempre habrá una compañía en un país que tenga interés y posibilidad de utilizarla, que adquiera con ello una ventaja competitiva, y que desplace a otras en el mercado.

Sí, los chatbots eliminan puestos de trabajo. Pero también crean otros, y mientras los primeros eran profundamente alienantes, desesperantes, mal pagados y de elevada rotación, los segundos ofrecen posibilidades mucho más interesantes. Y como los chatbots, cualquier otra tecnología que genere eficiencia. Cada vez que nos enfrentemos a una tecnología con el potencial de eliminar puestos de trabajo, preguntémonos cuáles son nuestros grados de libertad ante ello, y sobre todo, de qué lado queremos estar. Solo uno de los dos lados será sostenible.