IMAGE: Nick Youngson CC BY-SA 3.0 ImageCreatorGoogle ha publicado su declaración de principios con respecto a la inteligencia artificial, un texto cuidado, de propósito necesariamente amplio y que pretende cubrir todos los supuestos acerca de los posibles usos de su tecnología. La declaración constituye un documento breve y de lectura muy recomendable que, sobre todo, plantea muchas reflexiones sobre el mundo al que nos dirigimos y las reglas que, necesariamente, debemos plantearnos de cara a su evolución.

La compañía llevaba tiempo trabajando en una reflexión de este tipo, del mismo modo que se está trabajando mucho en este sentido en otros ámbitos: aquellos que afirman que la publicación del documento es una reacción a la reciente dimisión de una docena de trabajadores y la petición firmada por varios miles más en protesta por la participación de la compañía en el Proyecto Maven del Departamento de Defensa, destinado a reconocer imágenes tomadas por drones en el campo de batalla, o bien no conocen a la compañía, o confunden claramente los factores coyunturales con fundacionales, la forma con el fondo. La regulación de la inteligencia artificial no es un tema en absoluto nuevo, se está discutiendo en numerosos foros, en algunos de los cuales participo personalmente, y Google, como uno de los actores más relevantes y avanzados en este tema, no ha hecho más que poner en negro sobre blanco una declaración de principios que proviene de un proceso de reflexión largo y continuado en el tiempo.

Probablemente influenciados por la coincidencia en el tiempo de esas dos circunstancias, la mayor parte de los titulares que leerás en las noticias se refieren a la importancia de la declaración de Google describiéndola de manera simplista como “Google promete que su AI no será utilizada para el desarrollo de armas o violaciones de los derechos humanos“, cuando la realidad es que basta una lectura superficial del documento para entender que sus intenciones van mucho más allá. La mención a las armas, de hecho, ocupa un muy breve espacio en una sección de propósito aclaratorio titulada “AI applications we will not pursue”, y se limita a decir que la compañía no trabajará en “armas u otras tecnologías cuyo principal propósito o implementación es causar o facilitar directamente lesiones a las personas”, pero que “seguirán trabajando con gobiernos o con los militares en otras áreas que podrán incluir ciberseguridad, entrenamiento, reclutamiento militar, cuidado de salud para veteranos o búsqueda y rescate”.

¿Qué es lo importante, por tanto, en la declaración de principios de Google? En primer lugar, la importancia de llevar a cabo esta reflexión en todos los ámbitos, y de hacerlo de una manera no tremendista, bien informada, y con un adecuado nivel de realismo, sin imaginarse robots asesinos en escenarios apocalípticos que nos atacan en cada esquina, o supuestas inteligencias superiores que deciden librarse de los humanos porque les resultan molestos. No, cuando hablamos de inteligencia artificial no hablamos de inteligencia de propósito general, y no lo haremos durante mucho tiempo, porque inteligencia artificial, a día de hoy, no es eso. De manera realista, hablamos en realidad de aplicaciones que tienen más que ver con qué productos son ofrecidos a qué clientes potenciales, con políticas de pricing, con la prevención del abandono o churn, la detección de posibles patrones de actividad fraudulenta, las opciones en la determinación del marketing mix, y sin duda, cada vez más cosas. Menos morboso que los robots asesinos, sin duda, pero enormemente importante y con un potencial muy importante para hacer las cosas mal.

De ahí que uno de los puntos más relevantes declaración de principios, que incluye cuestiones como “ser socialmente beneficioso”, “evitar la creación o el refuerzo de sesgos”, “ser responsable ante las personas”, “incorporar principios de privacidad” o “ser puesto a disposición para usos acordes con estos principios” (lo que implica impedir su uso a quienes no los respeten), me han parecido puntos como el “mantener altos estándares de excelencia científica” o, sobre todo, “ser construido y probado con seguridad”: muchos de los problemas que la tecnología está planteando a medida que avanza provienen no del hecho de que se diseñe con objetivos potencialmente perjudiciales, sino al hecho de que se gestione de manera incorrecta, con una seguridad inadecuada, con errores graves en los procedimientos o sin tener en cuenta que en el mundo existen, obviamente, personas malintencionadas o con intereses oscuros. No, el “Oooops!”, la candidez o la ingenuidad sin límites no pueden seguir sirviendo como disculpas cuando hablamos de desarrollo de tecnologías con un potencial importante para usos perjudiciales o malintencionados, y Google reafirma su compromiso de cara a este tipo de problemas, un compromiso que que va mucho más allá del “no seremos malvados”. Esto, por supuesto, no exime a la compañía de la posibilidad de cometer errores, que pueden suceder en cualquier proceso, pero si reafirma una importante voluntad de no cometerlos, de someterse a procesos rigurosos y de tratar de evitarlos a toda costa. 

La reflexión sobre los principios éticos asociados al desarrollo de algoritmos de inteligencia artificial es importante, y va a producirse a todos los niveles. Tan importante como llevarla a cabo es conseguir que se produzca en el ámbito adecuado, alejada de ignorantes que desconocen completamente lo que es la inteligencia artificial y que, con mentalidad tremendista, creen que hablamos de HAL, de Skynet o de robots Terminator que vienen del futuro para asesinar a Sarah Connor. Permitir que personas no preparadas o que no entienden el desarrollo de machine learning e AI se impliquen en la redacción de los principios éticos que gobernarán su futuro es un absurdo conceptual que, sin duda, nos llevaría a visiones restrictivas y a intentos inútiles de detener el futuro. Esto incluye, sin duda, a la política: que el pueblo te elija para supuestamente representarle no implica que estés preparado para opinar – o peor, para legislar – sobre todos los temas. Si no se sabe de un tema, es mejor y más productivo para todos que se ejerza la responsabilidad necesaria para reconocerlo, abstenerse y solicitar la implicación de quienes sí lo dominan.

No es lo mismo, indudablemente, llevar a cabo una reflexión sobre los principios éticos que deben regir el desarrollo de la inteligencia artificial en Google, uno de los principales actores en el tema, que la está integrando en absolutamente todos sus productos y que se ha caracterizado precisamente por llevar a cabo una ambiciosísima iniciativa de formación de la práctica totalidad de sus empleados en esta disciplina, que tratar de desarrollarla en un gobierno, en un organismo supranacional o en cualquier otro entorno político en el que el conocimiento del tema está entre lo nulo, lo superficial y lo directamente alarmista. Reflexiones de ese tipo se van a intentar hacer en todo tipo de foros, y lo que más me interesa de ellas no son sus resultados, sino el proceso por el cual se lleven a cabo y las consecuencias que se pretenda que puedan tener.

Plantear interrogantes sobre el futuro y tratar de evitar consecuencias potencialmente negativas o no deseadas es una cosa, que si se hace con el rigor y la disciplina que Google ha puesto en ello, puede ser interesante y provechoso. Perseguir fantasmas y prohibir cosas por si acaso en alguna esquina aparece Terminator entre resplandores y nubes de humo es otra muy diferente, y nos puede llevar a verdaderas tonterías e intentos de detener el progreso y la evolución natural de la humanidad. Cuidado con los miedos irracionales, la desinformación, y con sus primos, la demagogia y el populismo. En el desarrollo de principios razonables y con sentido sobre el desarrollo de algoritmos de inteligencia artificial se juega una parte importante de nuestro futuro. La inteligencia artificial es cuestión de principios, sí. Pero de principios bien hechos.