IMAGE: Nick Youngson CC BY-SA 3.0 ImageCreatorGoogle ha publicado su declaración de principios con respecto a la inteligencia artificial, un texto cuidado, de propósito necesariamente amplio y que pretende cubrir todos los supuestos acerca de los posibles usos de su tecnología. La declaración constituye un documento breve y de lectura muy recomendable que, sobre todo, plantea muchas reflexiones sobre el mundo al que nos dirigimos y las reglas que, necesariamente, debemos plantearnos de cara a su evolución.

La compañía llevaba tiempo trabajando en una reflexión de este tipo, del mismo modo que se está trabajando mucho en este sentido en otros ámbitos: aquellos que afirman que la publicación del documento es una reacción a la reciente dimisión de una docena de trabajadores y la petición firmada por varios miles más en protesta por la participación de la compañía en el Proyecto Maven del Departamento de Defensa, destinado a reconocer imágenes tomadas por drones en el campo de batalla, o bien no conocen a la compañía, o confunden claramente los factores coyunturales con fundacionales, la forma con el fondo. La regulación de la inteligencia artificial no es un tema en absoluto nuevo, se está discutiendo en numerosos foros, en algunos de los cuales participo personalmente, y Google, como uno de los actores más relevantes y avanzados en este tema, no ha hecho más que poner en negro sobre blanco una declaración de principios que proviene de un proceso de reflexión largo y continuado en el tiempo.

Probablemente influenciados por la coincidencia en el tiempo de esas dos circunstancias, la mayor parte de los titulares que leerás en las noticias se refieren a la importancia de la declaración de Google describiéndola de manera simplista como “Google promete que su AI no será utilizada para el desarrollo de armas o violaciones de los derechos humanos“, cuando la realidad es que basta una lectura superficial del documento para entender que sus intenciones van mucho más allá. La mención a las armas, de hecho, ocupa un muy breve espacio en una sección de propósito aclaratorio titulada “AI applications we will not pursue”, y se limita a decir que la compañía no trabajará en “armas u otras tecnologías cuyo principal propósito o implementación es causar o facilitar directamente lesiones a las personas”, pero que “seguirán trabajando con gobiernos o con los militares en otras áreas que podrán incluir ciberseguridad, entrenamiento, reclutamiento militar, cuidado de salud para veteranos o búsqueda y rescate”.

¿Qué es lo importante, por tanto, en la declaración de principios de Google? En primer lugar, la importancia de llevar a cabo esta reflexión en todos los ámbitos, y de hacerlo de una manera no tremendista, bien informada, y con un adecuado nivel de realismo, sin imaginarse robots asesinos en escenarios apocalípticos que nos atacan en cada esquina, o supuestas inteligencias superiores que deciden librarse de los humanos porque les resultan molestos. No, cuando hablamos de inteligencia artificial no hablamos de inteligencia de propósito general, y no lo haremos durante mucho tiempo, porque inteligencia artificial, a día de hoy, no es eso. De manera realista, hablamos en realidad de aplicaciones que tienen más que ver con qué productos son ofrecidos a qué clientes potenciales, con políticas de pricing, con la prevención del abandono o churn, la detección de posibles patrones de actividad fraudulenta, las opciones en la determinación del marketing mix, y sin duda, cada vez más cosas. Menos morboso que los robots asesinos, sin duda, pero enormemente importante y con un potencial muy importante para hacer las cosas mal.

De ahí que uno de los puntos más relevantes declaración de principios, que incluye cuestiones como “ser socialmente beneficioso”, “evitar la creación o el refuerzo de sesgos”, “ser responsable ante las personas”, “incorporar principios de privacidad” o “ser puesto a disposición para usos acordes con estos principios” (lo que implica impedir su uso a quienes no los respeten), me han parecido puntos como el “mantener altos estándares de excelencia científica” o, sobre todo, “ser construido y probado con seguridad”: muchos de los problemas que la tecnología está planteando a medida que avanza provienen no del hecho de que se diseñe con objetivos potencialmente perjudiciales, sino al hecho de que se gestione de manera incorrecta, con una seguridad inadecuada, con errores graves en los procedimientos o sin tener en cuenta que en el mundo existen, obviamente, personas malintencionadas o con intereses oscuros. No, el “Oooops!”, la candidez o la ingenuidad sin límites no pueden seguir sirviendo como disculpas cuando hablamos de desarrollo de tecnologías con un potencial importante para usos perjudiciales o malintencionados, y Google reafirma su compromiso de cara a este tipo de problemas, un compromiso que que va mucho más allá del “no seremos malvados”. Esto, por supuesto, no exime a la compañía de la posibilidad de cometer errores, que pueden suceder en cualquier proceso, pero si reafirma una importante voluntad de no cometerlos, de someterse a procesos rigurosos y de tratar de evitarlos a toda costa. 

La reflexión sobre los principios éticos asociados al desarrollo de algoritmos de inteligencia artificial es importante, y va a producirse a todos los niveles. Tan importante como llevarla a cabo es conseguir que se produzca en el ámbito adecuado, alejada de ignorantes que desconocen completamente lo que es la inteligencia artificial y que, con mentalidad tremendista, creen que hablamos de HAL, de Skynet o de robots Terminator que vienen del futuro para asesinar a Sarah Connor. Permitir que personas no preparadas o que no entienden el desarrollo de machine learning e AI se impliquen en la redacción de los principios éticos que gobernarán su futuro es un absurdo conceptual que, sin duda, nos llevaría a visiones restrictivas y a intentos inútiles de detener el futuro. Esto incluye, sin duda, a la política: que el pueblo te elija para supuestamente representarle no implica que estés preparado para opinar – o peor, para legislar – sobre todos los temas. Si no se sabe de un tema, es mejor y más productivo para todos que se ejerza la responsabilidad necesaria para reconocerlo, abstenerse y solicitar la implicación de quienes sí lo dominan.

No es lo mismo, indudablemente, llevar a cabo una reflexión sobre los principios éticos que deben regir el desarrollo de la inteligencia artificial en Google, uno de los principales actores en el tema, que la está integrando en absolutamente todos sus productos y que se ha caracterizado precisamente por llevar a cabo una ambiciosísima iniciativa de formación de la práctica totalidad de sus empleados en esta disciplina, que tratar de desarrollarla en un gobierno, en un organismo supranacional o en cualquier otro entorno político en el que el conocimiento del tema está entre lo nulo, lo superficial y lo directamente alarmista. Reflexiones de ese tipo se van a intentar hacer en todo tipo de foros, y lo que más me interesa de ellas no son sus resultados, sino el proceso por el cual se lleven a cabo y las consecuencias que se pretenda que puedan tener.

Plantear interrogantes sobre el futuro y tratar de evitar consecuencias potencialmente negativas o no deseadas es una cosa, que si se hace con el rigor y la disciplina que Google ha puesto en ello, puede ser interesante y provechoso. Perseguir fantasmas y prohibir cosas por si acaso en alguna esquina aparece Terminator entre resplandores y nubes de humo es otra muy diferente, y nos puede llevar a verdaderas tonterías e intentos de detener el progreso y la evolución natural de la humanidad. Cuidado con los miedos irracionales, la desinformación, y con sus primos, la demagogia y el populismo. En el desarrollo de principios razonables y con sentido sobre el desarrollo de algoritmos de inteligencia artificial se juega una parte importante de nuestro futuro. La inteligencia artificial es cuestión de principios, sí. Pero de principios bien hechos.

 

Gmail Smart Compose (IMAGE: Google)Si ayer no dedicaste un par de horas durante la tarde a ver la conferencia de apertura del Google I/O, hiciste mal. Este tipo de conferencias, teóricamente para desarrolladores, son cada día más en sus sesiones inaugurales un muy buen escaparate de lo que la tecnología nos trae y de las posibilidades que tendremos en nuestras manos en muy poco tiempo – quizá algo más si lo que esperas es tenerlo disponible en tu idioma y este es distinto del inglés, pero pronto en cualquier caso.

Entre los “prodigios” que Google nos presentó, de la mano de un Sundar Pichai que iba dando paso a distintos especialistas de producto, puede verse claramente que el camino que la compañía inició hace ahora unos dos años, con mensajes como “nuestra inteligencia artificial es más inteligente que la de nuestros competidores” porque “llevamos más tiempo“, “poner AI en todas partes” o “repensarnos como una compañía machine learning first” no eran en absoluto un brindis al sol. Las palabras AI, inteligencia artificial o machine learning fueron una repetición constante asociada a absolutamente todo, en cada producto, en cada prestación, en cada momento. El cambio es tan profundo, tan obsesivo, que ahora hasta Google Research ha sido rebautizada como Google AI: toda la investigación que se hace en la compañía tiene que ver con la incorporación de machine learning e inteligencia artificial. En todo y para todo.

Entre las novedades presentadas, un asistente de escritura de mensajes para Gmail. La idea de que un asistente sea quien te escribe los mensajes proponiéndote frases completas a medida que escribes lleva años sonando tentadora, y en algunos casos limitados, es posible que hasta la hayamos experimentado ya: cuando contesto uno de los entre dos y tres correos electrónicos que recibo cada semana interesándose por la posibilidad de introducir publicidad o posts patrocinados en esta página, propuesta a la que siempre respondo cordialmente pero en idénticos términos negativos, he comprobado que puedo componer un mensaje completo (unas dos líneas de texto) simplemente utilizando el teclado predictivo, que me va sugiriendo, una detrás de otra, las palabras que he utilizado en ocasiones anteriores. Pero claro, una cosa es una respuesta estándar a un tema repetitivo, y otra cosa lo que pudimos ver ayer: el mensaje que ilustra estas líneas está compuesto en más de un 90% por un algoritmo, con el humano simplemente iniciando algunas de las frases con un par de letras. Dentro de las sugerencias que el usuario acepta hay de todo: desde salutaciones y despedidas cordiales, hasta propuestas sobre qué llevar a una cena, pasando por fechas, horas o direcciones. Presenciar la secuencia tiene algo de inquietante: no solo es que la máquina sepa cómo sueles dirigirte a esa persona, sino que entiende perfectamente cosas como de qué va el mensaje en función de una palabra en su asunto, sabe qué ingredientes tiene una cena con ese elemento principal, calcula qué día puedes cenar con esas persona, sugiere una hora adecuada, y hasta le da tu dirección!

En realidad, tiendo a pensar que lo que me resulta inquietante – o me genera, por qué no decirlo, un cierto rechazo – es el hecho de que el ejemplo escogido sea un mensaje a una amiga proponiéndole una cena. No sé vosotros, pero cuando imagino la automatización de tareas, tiendo a verla asociada con tareas de trabajo, con cuestiones formales, funcionales, relativamente carentes de emoción. La idea de escribir a un amigo no entra dentro de ese conjunto: a los amigos les escribo de otra manera, con otra mentalidad… es, para mí, una tarea que seguramente, aunque pudiese, no querría automatizar. Igualmente en recíproco: no me gustaría pensar que mis amigos me escriben o contestan mis mensajes de manera automatizada, aunque es evidente que hay cuestiones, como la felicitación anual de mi cumpleaños, que dependen prácticamente de forma exclusiva de los recordatorios que Facebook, LinkedIn y otras redes lanzan a todos los que me tienen como parte de su red.

Otro caso particularmente interesante y, en muchos sentidos, futurista, es la posibilidad de hacer que el asistente de Google haga llamadas por ti a personas de carne y hueso para, por ejemplo, reservar una cita para cortarte el pelo o en un restaurante. Las conversaciones que Sundar Pichai utilizó como ejemplo de Google Duplex provienen del análisis y entrenamiento del algoritmo con miles de horas de conversaciones anónimas, y se desarrollaron de manera aterradoramente perfecta, con el asistente no solo expresándose como una persona en todos los sentidos, con una entonación completamente humana indiscernible de una persona real e incluso con uso de partículas de asentimiento o espera, o tomando decisiones sobre la marcha en situaciones de incertidumbre. Las personas reales que había al otro lado, una empleada de una peluquería y una de un restaurante con un dominio del inglés más bien escaso, no tuvieron oportunidad alguna de imaginarse que no estaban hablando con una persona.

En este caso, la situación resulta algo más aceptable, aunque algunos la sigan considerando “inquietante”: una llamada de ese tipo, para pedir una cita, es algo que consideramos mecánico, donde buscamos la eficiencia, y de hecho seguramente muchas personas ya preferimos hacerlo fríamente online en lugar de mediante el teléfono cuando tenemos oportunidad. Es, al menos para mí, un caso claramente distinto del anterior, del mensaje a un amigo. Pero sin duda, una tecnología así, en cuanto esté razonablemente desplegada y popularizada, va a cambiar las relaciones sociales: que millones de personas empiecen a utilizar de manera habitual un asistente para ese tipo de tareas llevará a que personas al otro lado del hilo empiecen a asumir que hablan con un asistente, y probablemente cambien su forma de expresarse buscando una mayor eficiencia y prescindiendo de determinadas normas clásicas de educación, o que incluso pasen a utilizar otro asistente para que “converse” con el nuestro.

Estamos ante uno de esos “momentos de la verdad” que últimamente vemos parece que a menudo: Google ya no solo demuestra sin paliativos que su tecnología conversacional, su AI y su machine learning está por encima de las de otras compañías de su entorno – algo que podemos comprobar en cualquier momento con un iPhone en la mano si le hacemos la misma pregunta precedida por un “Oye, Siri” frente a un “OK, Google” y comparamos la calidad de las respuestas – sino que, además, ha presentado opciones realistas de uso, tecnologías razonablemente maduras que soportan casos de uso extremadamente versátiles, situaciones cotidianas de todo tipo, coyunturas que cabe pensar que muchas compañías utilizarán para proponer ya no un servicio más barato, sino posiblemente, un servicio mejor, más predecible o con menos errores. Automatización que ya no significa “actuar de forma automática”, sino “resolver un problema complejo”, con máquinas que se han entrenado previamente para ello con miles de situaciones similares, que tienen siempre la respuesta perfecta, la palabra precisa, la decisión ideal.

¿Queremos asistentes para automatizar tareas que consideramos mecánicas o aburridas? Sin duda, sí. ¿Los queremos para automatizar nuestras relaciones con nuestros amigos, para solucionar esas eternas conversaciones de WhatsApp intentando quedar un día o en un sitio? Ahí ya empiezo a tener mis dudas… seguramente valoraría herramientas para algunas cosas, pero creo que prefiero seguir teniendo cierta seguridad de que estoy hablando con mi amigo, no con el asistente digital de mi amigo. Pero tal vez en unos años ya no sea así, y hayamos desarrollado todo un nuevo conjunto de protocolos sociales para esas ocasiones. Si no viste Google I/O, de verdad, dedícale un rato. Vale la pena. Si te inquieta algo de lo que veas, considéralo normal. Pero sobre todo, asume que este tipo de cosas ya han llegado, ya están disponibles, ya se pueden utilizar, ya no es ciencia-ficción, y te las vas a encontrar más pronto que tarde… quién sabe, si en el mensaje de un amigo que te invita a cenar!

 

Library archive systemFacebook comenta, en una de las conferencias de su F8, cómo utiliza las etiquetas en los varios miles de millones de fotografías que los usuarios suben a Instagram, para entrenar a sus algoritmos de reconocimiento de imágenes, y cómo eso le ha permitido mejorar los estándares de la industria en este sentido y que sus algoritmos sean capaces de alcanzar una fiabilidad del 85.4%

La idea de Facebook de utilizar las imágenes subidas y etiquetadas por sus usuarios para entrenar algoritmos de reconocimiento ya había sido puesta en práctica anteriormente por Google, que utiliza los vídeos etiquetados de YouTube también de manera sistemática para exactamente lo mismo: a la hora de explicar a un algoritmo en qué consisten verbos como abrazarse, pelearse o cocinar, por ejemplo, pocas cosas pueden ser más explicativas que un vídeo etiquetado con esas palabras. El sistema, obviamente, no es perfecto, pero los errores cuando hablamos de etiquetado de una fotografía o vídeo llevado a cabo por el usuario que lo ha subido son más bien escasos, porque por norma general, el etiquetado tiene como misión facilitar una mejor localización del contenido.

Quien tiene un conjunto de datos etiquetados de manera razonablemente fiable tiene un tesoro, porque puede utilizarlos para entrenar a un algoritmo y conseguir que una máquina sea capaz de entender el significado de lo que hay en esos datos. Recientemente comenté el caso de Qure.ai, una compañía con la que entré en contacto a través de Netexplo, que recopilaba archivos de radiólogos y otros profesionales médicos que trabajaban con imágenes (escáneres, tomografías, etc.) y que solían guardarlos etiquetados con el diagnóstico correspondiente. Eso permitía, alimentando al correspondiente algoritmo, desarrollar un sistema capaz de diagnosticar tumores a partir de imágenes médicas, algo que hoy es preciso llevar a cabo de manera manual y que, obviamente, no está exento de error. Con el tiempo, la predicción de la compañía era que, a medida que la fiabilidad del algoritmo se incrementaba, los médicos muy probablemente dejarían de querer diagnosticar esas imágenes manualmente por miedo a pasar por alto determinados patrones que la máquina sí podía reconocer, algo que eventualmente, a lo largo del tiempo, podría determinar que esa habilidad se perdiese.

Cada vez está más clara la importancia de que las compañías de todo tipo sean conscientes de estas cuestiones. La clave ya no está en contar con los mejores profesionales, sino en el hecho de que tu actividad te permita generar datos estructurados que puedan ser utilizados para entrenar a los correspondientes algoritmos. Da igual lo que hagas, plantéatelo: ¿cómo podrías hacer que el día a día, la operativa de tu compañía sea capaz de generar ese repositorio de datos correctamente etiquetados que puedan ser suministrados a un algoritmo para su aprendizaje? ¿Qué podríamos llegar a hacer si un algoritmo consigue un nivel de fiabilidad elevada en ese sentido?

Como en todo, la cuestión es más de mentalidad que de otra cosa. Entender el problema permite llegar antes no solo a una definición de objetivos razonables, sino también a una identificación más rápida de problemas potenciales que permita trabajar en su resolución. A la hora de imaginar qué tareas puede llegar a hacer un algoritmo, la mayor parte de los directivos se encuentran con limitaciones de planteamiento: ven una gran cantidad de sus procesos como intrínsecamente humanos, y son incapaces de imaginar que determinadas habilidades para las que hoy se requiere una persona puedan llegar a ser dominadas por una máquina. Obviamente, los algoritmos no van a hacerlo todo, o al menos no de la noche a la mañana: los proyectos de machine learning precisan de una primera fase sumamente compleja y dura en la que que hay de definir objetivos concretos, recolectar datos, transformarlos y suplementarlos con más datos adicionales antes de poder pasar a armar modelos y hacer predicciones o diagnósticos que puedan ser evaluados… pero a pesar de la dificultad de esos proyectos, una cosa está clara: los datos son la auténtica barrera de entrada, la clave de la cuestión, lo que va a diferenciar a las compañías capaces de avanzar en ese sentido de aquellas que no lo consigan.

Orientar la actividad de una compañía a la generación de datos analizables no es algo que requiera un enorme esfuerzo ni cambios radicales: simplemente requiere entender los objetivos y atacar el problema de la manera adecuada. Empezar pronto, en cambio, es una garantía de, cuando menos, tener hechos los deberes para lo que pueda venir. Los datos como auténtica ventaja competitiva. Las compañías tecnológicas hace tiempo que lo tienen claro. ¿Qué puedes hacer tú en la tuya?

 

IMAGE: Dirk Ercken - 123RFUn memorandum del CEO de Microsoft, Satya Nadella a todos los empleados de la compañía anuncia una fuerte reestructuración con mucho sentido aparente que apunta a poner todo el peso estratégico de cara al futuro en dos elementos fundamentales: la inteligencia artificial y la nube. Un movimiento completamente acorde con la evolución tecnológica y con los tiempos que vivimos, que trata de poner en valor a una compañía que ya no es la propietaria del sistema operativo más utilizado, pero a la que le queda muchísimo potencial de contribución al futuro de la tecnología. De hecho, así lo refleja una valoración que, según Morgan Stanley, podría llegar a alcanzar los mil millones de dólares a lo largo de este año 2018, irrumpiendo en una carrera en la que la mayoría tendían a mirar más bien hacia Apple y Google.

Para alcanzar ese objetivo de redefinirse en un mundo en el que la importancia del sistema operativo ha quedado sensiblemente reducida, la compañía degrada la posición estratégica de Windows, el sistema operativo que le permitió convertirse en lo que es hoy: el responsable de Windows, Terry Myerson, abandona la compañía, y su puesto en el primer nivel directivo de la compañía no es sustituido por ninguna otra persona con la palabra “Windows” en su tarjeta. El hasta ahora responsable de Office, Rajesh Jha, entra en ese primer nivel como responsable de una nueva división llamada ahora “Experiences & Devices”, dentro de la que se encuentra Windows.

Entre las prioridades, entender el nuevo papel del sistema operativo en un mundo en el que las experiencias de computación tienen lugar a través de múltiples dispositivos muchos de los cuales no tienen Windows, y por tanto, crear una arquitectura muy abierta y orientada a la nube en la que la compatibilidad con iOS y Android sea un elemento fundamental: da lo mismo qué dispositivo estés utilizando y con qué sistema operativo, pero podrás conectar de manera sencilla con la nube de Microsoft y trabajar con sus algoritmos. Como ya sabemos y hemos comentado desde hace muchísimo tiempo: abierto mejor que cerrado

Como armas fundamentales, una penetración privilegiada en el mundo corporativo, y una muy respetable segunda posición, por detrás Amazon pero por delante de Google, en el mercado del cloud computing, además de una cultura reforzada bajo la batuta de un Satya Nadella que está llevando a cabo la que puede ser, posiblemente, una de las operaciones de reorganización y transformación más ambiciosas e importantes de la historia de la tecnología, tras el desastre y la total pérdida de oportunidades que supuso su nefasto predecesor. Como resultado de la dirección marcada por Ballmer, Microsoft se quedó fuera de revoluciones tan importantes como la búsqueda, los smartphones, el código abierto o las redes sociales, una posición que, lógicamente, dejaba sus posibilidades de futuro sensiblemente reducidas.

Desde aquel panorama, en el que con Ballmer aún en la compañía, una portada de The Economist en 2012 dejó fuera a Microsoft de ese liderazgo tecnológico por el que, según ellos, luchaban Google, Apple, Facebook y Amazon, hasta tener hoy una compañía con brillantes perspectivas financieras, que ha sabido descontar agresiva y rápidamente sus anteriores errores, que está llevando a cabo una muy razonable transformación desde la simple venta de licencias (y anteriormente, cajas de discos envueltas en celofán), y que se transforma para adaptarse y participar de las tendencias más importantes del futuro tecnológico. No soy yo especialmente dado a las entradas laudatorias, pero la lectura del memorandum viene a reafirmar las razones por las que, desde hace ya algún tiempo, muchos hemos vuelto a considerar a Microsoft no solo una compañía muy interesante, sino además, a creer firmemente que cuanto mejor le vaya a la compañía, mejor nos irá a los usuarios y a la evolución del ecosistema tecnológico en general.

 

Emmanuel Macron Talks to WIRED About France's AI Strategy - WiredHe leído con sumo interés la entrevista que Wired acaba de publicar con el presidente de Francia, Emmanuel Macron, en la que habla de la estrategia de su país con respecto a la inteligencia artificial. Independientemente de lo que uno pueda opinar sobre Emmanuel Macron, que como político que es suscita todo tipo de debates polarizados que no son en absoluto lo que me interesa discutir en esta página, da muchísima envidia ver un político del máximo nivel hablando sobre un tema como la inteligencia artificial, marcando prioridades en su desarrollo y entendiendo lo que su país se está jugando en un tema que va a condicionar la evolución de nuestra sociedad y su capacidad de generación de riqueza ya no en el futuro, sino ahora mismo. Como el mismo Macron comenta en la entrevista, “esta enorme revolución tecnológica es, como tal, una revolución política”, y es fundamental avanzar en la discusión de cómo gestionarla y posicionarse con respecto a ella, en lugar de simplemente ignorarla como tristemente, por incapacidad, cortoplacismo o ignorancia, hacen los políticos en la mayoría de los países. Lo que hagamos con respecto a la inteligencia artificial va a condicionar profundamente la política de los países y su actitud con respecto a temas como los derechos, las libertades, la privacidad y muchas cuestiones más.

Para empezar, el presidente francés marca como ejemplos de prioridades en la agenda dos áreas, la sanidad y el transporte, en los que el desarrollo de la inteligencia artificial va a marcar enormes diferencias de planteamiento. Para un país, el rediseño de los sistemas de salud para hacer frente a la abundancia de datos y replantear la medicina desde un punto de vista preventivo supone un auténtico paso fundamental en la transición a la modernidad, un paso que, además, no tiene por qué terminar teniendo un coste más elevado que el actual: es perfectamente posible plantear que un sistema de salud orientado a la prevención pueda tener costes inferiores, derivados, entre otras cosas, de la posibilidad de tratar posibles dolencias graves cuando se encuentran aún en fases tempranas: además de una mayor eficiencia, el enfoque a la prevención puede redundar, lógicamente, en los infinitos beneficios que supone una ciudadanía más saludable, una aproximación que, por el momento, únicamente China, lanzada a marcar la hegemonía de la inteligencia artificial, parece estar tomando.

En transporte, la cuestión es igualmente evidente – y cada día más acuciante. La transición hacia vehículos autónomos tiene la capacidad de reducir enormemente los accidentes de circulación, además de obtener sistemas esencialmente más eficientes, con menor congestión y menos contaminantes. En un país como Francia, con empresas fuertemente posicionadas en el sector del transporte, asegurar que esas empresas se alinean con esos objetivos lo antes posible y darles las señales adecuadas con respecto a la necesidad y apoyo a ese cambio supone un elemento fundamental para la competitividad futura.

¿Cómo plantear incentivos al desarrollo de la inteligencia artificial? La respuesta de Francia es clara: con dinero. Mil quinientos millones de euros, concretamente, destinados a la creación de laboratorios científicos y centros de investigación, proyectos y financiación para startups y compañías que trabajan en este ámbito. La idea es revertir la fuga de talento que, hasta el momento, había marcado el hecho de que la innovación en inteligencia artificial se estuviese dando fundamentalmente en dos países, China y los Estados Unidos, y trazar una agenda para que las empresas de este campo quieran plantearse invertir en Francia (algunas, como Microsoft, Samsung, Fujitsu o DeepMind, ya han hecho anuncios en ese sentido). Para Emmanuel Macron, resulta fundamental desarrollar capacidades en Francia que puedan colocarla en una posición de liderazgo competitivo con esos dos países, y evitar que la voracidad de las adquisiciones de compañías norteamericanas como Google o Apple acabe por convertirse en un drenaje continuo del talento de su país.

La inteligencia artificial va a eclipsar a la ley de Moore como vehículo de innovación. Vivimos una auténtica carrera para replantearnos cómo vamos a hacer muchísimas cosas mediante inteligencia artificial, cómo incorporarla a nuestros productos y servicios, cómo integrarla para evitar quedarnos rezagados frente a los que consiguen hacerlo. Entender lo que la inteligencia artificial puede y no puede hacer por nuestras compañías es la tarea fundamental de todos los directivos en este momento: viviremos, por supuesto, una etapa de paradoja de la productividad en en ese ámbito durante la que resultará difícil o confuso justificar su rentabilidad, pero que eso no nos engañe: la inteligencia artificial es el único camino a seguir. A efectos de empresa, eso implicará la diferencia entre ser o no ser competitivo en todas las industrias. Pero a nivel de país, y eso es lo que claramente ha entendido Emmanuel Macron, puede llegar a significar mucho más.