IMAGE: Nick Youngson CC BY-SA 3.0 ImageCreatorGoogle ha publicado su declaración de principios con respecto a la inteligencia artificial, un texto cuidado, de propósito necesariamente amplio y que pretende cubrir todos los supuestos acerca de los posibles usos de su tecnología. La declaración constituye un documento breve y de lectura muy recomendable que, sobre todo, plantea muchas reflexiones sobre el mundo al que nos dirigimos y las reglas que, necesariamente, debemos plantearnos de cara a su evolución.

La compañía llevaba tiempo trabajando en una reflexión de este tipo, del mismo modo que se está trabajando mucho en este sentido en otros ámbitos: aquellos que afirman que la publicación del documento es una reacción a la reciente dimisión de una docena de trabajadores y la petición firmada por varios miles más en protesta por la participación de la compañía en el Proyecto Maven del Departamento de Defensa, destinado a reconocer imágenes tomadas por drones en el campo de batalla, o bien no conocen a la compañía, o confunden claramente los factores coyunturales con fundacionales, la forma con el fondo. La regulación de la inteligencia artificial no es un tema en absoluto nuevo, se está discutiendo en numerosos foros, en algunos de los cuales participo personalmente, y Google, como uno de los actores más relevantes y avanzados en este tema, no ha hecho más que poner en negro sobre blanco una declaración de principios que proviene de un proceso de reflexión largo y continuado en el tiempo.

Probablemente influenciados por la coincidencia en el tiempo de esas dos circunstancias, la mayor parte de los titulares que leerás en las noticias se refieren a la importancia de la declaración de Google describiéndola de manera simplista como “Google promete que su AI no será utilizada para el desarrollo de armas o violaciones de los derechos humanos“, cuando la realidad es que basta una lectura superficial del documento para entender que sus intenciones van mucho más allá. La mención a las armas, de hecho, ocupa un muy breve espacio en una sección de propósito aclaratorio titulada “AI applications we will not pursue”, y se limita a decir que la compañía no trabajará en “armas u otras tecnologías cuyo principal propósito o implementación es causar o facilitar directamente lesiones a las personas”, pero que “seguirán trabajando con gobiernos o con los militares en otras áreas que podrán incluir ciberseguridad, entrenamiento, reclutamiento militar, cuidado de salud para veteranos o búsqueda y rescate”.

¿Qué es lo importante, por tanto, en la declaración de principios de Google? En primer lugar, la importancia de llevar a cabo esta reflexión en todos los ámbitos, y de hacerlo de una manera no tremendista, bien informada, y con un adecuado nivel de realismo, sin imaginarse robots asesinos en escenarios apocalípticos que nos atacan en cada esquina, o supuestas inteligencias superiores que deciden librarse de los humanos porque les resultan molestos. No, cuando hablamos de inteligencia artificial no hablamos de inteligencia de propósito general, y no lo haremos durante mucho tiempo, porque inteligencia artificial, a día de hoy, no es eso. De manera realista, hablamos en realidad de aplicaciones que tienen más que ver con qué productos son ofrecidos a qué clientes potenciales, con políticas de pricing, con la prevención del abandono o churn, la detección de posibles patrones de actividad fraudulenta, las opciones en la determinación del marketing mix, y sin duda, cada vez más cosas. Menos morboso que los robots asesinos, sin duda, pero enormemente importante y con un potencial muy importante para hacer las cosas mal.

De ahí que uno de los puntos más relevantes declaración de principios, que incluye cuestiones como “ser socialmente beneficioso”, “evitar la creación o el refuerzo de sesgos”, “ser responsable ante las personas”, “incorporar principios de privacidad” o “ser puesto a disposición para usos acordes con estos principios” (lo que implica impedir su uso a quienes no los respeten), me han parecido puntos como el “mantener altos estándares de excelencia científica” o, sobre todo, “ser construido y probado con seguridad”: muchos de los problemas que la tecnología está planteando a medida que avanza provienen no del hecho de que se diseñe con objetivos potencialmente perjudiciales, sino al hecho de que se gestione de manera incorrecta, con una seguridad inadecuada, con errores graves en los procedimientos o sin tener en cuenta que en el mundo existen, obviamente, personas malintencionadas o con intereses oscuros. No, el “Oooops!”, la candidez o la ingenuidad sin límites no pueden seguir sirviendo como disculpas cuando hablamos de desarrollo de tecnologías con un potencial importante para usos perjudiciales o malintencionados, y Google reafirma su compromiso de cara a este tipo de problemas, un compromiso que que va mucho más allá del “no seremos malvados”. Esto, por supuesto, no exime a la compañía de la posibilidad de cometer errores, que pueden suceder en cualquier proceso, pero si reafirma una importante voluntad de no cometerlos, de someterse a procesos rigurosos y de tratar de evitarlos a toda costa. 

La reflexión sobre los principios éticos asociados al desarrollo de algoritmos de inteligencia artificial es importante, y va a producirse a todos los niveles. Tan importante como llevarla a cabo es conseguir que se produzca en el ámbito adecuado, alejada de ignorantes que desconocen completamente lo que es la inteligencia artificial y que, con mentalidad tremendista, creen que hablamos de HAL, de Skynet o de robots Terminator que vienen del futuro para asesinar a Sarah Connor. Permitir que personas no preparadas o que no entienden el desarrollo de machine learning e AI se impliquen en la redacción de los principios éticos que gobernarán su futuro es un absurdo conceptual que, sin duda, nos llevaría a visiones restrictivas y a intentos inútiles de detener el futuro. Esto incluye, sin duda, a la política: que el pueblo te elija para supuestamente representarle no implica que estés preparado para opinar – o peor, para legislar – sobre todos los temas. Si no se sabe de un tema, es mejor y más productivo para todos que se ejerza la responsabilidad necesaria para reconocerlo, abstenerse y solicitar la implicación de quienes sí lo dominan.

No es lo mismo, indudablemente, llevar a cabo una reflexión sobre los principios éticos que deben regir el desarrollo de la inteligencia artificial en Google, uno de los principales actores en el tema, que la está integrando en absolutamente todos sus productos y que se ha caracterizado precisamente por llevar a cabo una ambiciosísima iniciativa de formación de la práctica totalidad de sus empleados en esta disciplina, que tratar de desarrollarla en un gobierno, en un organismo supranacional o en cualquier otro entorno político en el que el conocimiento del tema está entre lo nulo, lo superficial y lo directamente alarmista. Reflexiones de ese tipo se van a intentar hacer en todo tipo de foros, y lo que más me interesa de ellas no son sus resultados, sino el proceso por el cual se lleven a cabo y las consecuencias que se pretenda que puedan tener.

Plantear interrogantes sobre el futuro y tratar de evitar consecuencias potencialmente negativas o no deseadas es una cosa, que si se hace con el rigor y la disciplina que Google ha puesto en ello, puede ser interesante y provechoso. Perseguir fantasmas y prohibir cosas por si acaso en alguna esquina aparece Terminator entre resplandores y nubes de humo es otra muy diferente, y nos puede llevar a verdaderas tonterías e intentos de detener el progreso y la evolución natural de la humanidad. Cuidado con los miedos irracionales, la desinformación, y con sus primos, la demagogia y el populismo. En el desarrollo de principios razonables y con sentido sobre el desarrollo de algoritmos de inteligencia artificial se juega una parte importante de nuestro futuro. La inteligencia artificial es cuestión de principios, sí. Pero de principios bien hechos.

 

IMAGE SOURCE: United States Senate Committee on Commerce, Science, and Transportation

La primera jornada de la declaración de Mark Zuckerberg ante el Comité del Senado de los Estados Unidos sobre Comercio, Ciencia y Transporte nos ha dejado más de cinco horas y media de comparecencia, algunas conclusiones interesantes, algunos momentos extraños, la subida en bolsa más grande de las acciones de la compañía en los últimos dos años, y la evidencia de que los miembros del comité, además de haber recibido muchos de ellos importantes contribuciones económicas de Facebook para sus campañas, tienen por lo general un muy escaso conocimiento de lo que es Facebook y a qué se dedica.

La evidencia es clara: esto es lo que ocurre cuando alguien crea una plataforma potentísima para la interacción entre personas y se plantea financiar su actividad mediante la publicidad segmentada, en un país en el que la privacidad tiene un nivel de protección prácticamente inexistente. Si ni el mismísimo Mark Zuckerberg es aún capaz de entender qué es lo que ha creado y sus posibles efectos, esperar que un puñado de senadores norteamericanos lo hagan y sepan, además, cómo arreglar sus efectos es, obviamente, una esperanza vana. La comparecencia la podemos ver entera si tenemos humor para ello, leer su transcripción completa o incluso ver parte de las notas de su protagonista, pero las conclusiones, mucho me temo, van a ser las mismas: en un país en el que la privacidad no es objeto de una protección excesiva, pretender que sea el fundador de Facebook el que sea quien explique cómo funciona y como debería funcionar su compañía es patentemente absurdo: lo que habría que hacer es llegar primero a un consenso de lo que es la privacidad y cuál es el nivel de protección que queremos para ella, regularla adecuadamente y, posteriormente, definirle a Facebook de manera inequívoca y no interpretable el entorno en el que tiene que llevar a acabo su actividad.

Mark Zuckerberg se defendió de las acusaciones de monopolio, desmintió leyendas urbanas como aquella que afirmaba que su compañía escuchaba las conversaciones telefónicas de sus usuarios para poder servirles anuncios más ajustados a sus intereses, y no se opuso a cierto nivel de regulación de su actividad, aunque se mostró evasivo sobre el tema y mostró claramente que su idea a largo plazo es seguir desarrollando inteligencia artificial para corregir algunos de los problemas de su plataforma. Visto así, la idea de hacer que el fundador de Facebook comparezca ante un comité del Senado para preguntarle sobre esos temas parece más bien inútil: de nuevo, lo que habría que hacer es decidir sobre esa posible regulación y su conveniencia, marcar unas reglas de juego claras que definan lo que se puede y no se puede hacer, y simplemente obligar a Facebook y al resto de las compañías que se dediquen o se quieran dedicar a lo mismo a cumplirlas de manera escrupulosa, con la correspondiente supervisión y sanciones en caso de incumplimiento.

Ese podría ser, precisamente, el tema en el que Europa podría llevar la delantera a los Estados Unidos con el desarrollo del Reglamento General de Protección de Datos (GDPR), una regulación que proviene de una clara demanda social, que es preciso gestionar como lo que es, una primera propuesta que hay que manejar con la adecuada flexibilidad y adaptarla a la luz de sus efectos, pero que al menos ofrece un marco claro en ese sentido. La posibilidad, como comentábamos hace pocos días, de que la propia Facebook se plantee ajustarse a ese nivel de protección de los datos personales no solo de cara a sus actividades en Europa sino de manera general en todo el mundo es, seguramente, la más interesante de todas las posibles consecuencias que haya podido tener el escándalo de Cambridge Analytica, y para los Estados Unidos y su claramente insuficiente entorno de protección de la privacidad, una posibilidad clara de plantearse un atajo en ese sentido. Otra cosa es que un país como ese, con esos políticos y con esa tradición cultural, sea capaz de plantearse o de poner en práctica un nivel de regulación mínimamente comparable al europeo: si algo demostró la comparecencia de ayer es que Facebook está más cerca de arreglar sus problemas con el recurso a la legislación europea o por su cuenta que dependiendo de las decisiones de los políticos del país en el que fue fundada.

 

Facebook logo on European flagDentro de los cambios que Facebook está poniendo en marcha a raíz del escándalo de Cambridge Analytica, encuadrados dentro de un reconocimiento de Mark Zuckerberg de que la compañía no hizo lo suficiente para custodiar de una manera adecuada los datos de sus usuarios, el fundador ha lanzado una idea que me parece como mínimo provocativa e interesante: la posibilidad de que su compañía se plantee ofrecer las mismas reglas a las que Europa le va a obligar mediante la nueva Directiva General de Protección de Datos, GDPR, pero a nivel mundial.

Que Facebook se plantee una posibilidad así marcaría un hito importante en la evolución del concepto de privacidad a nivel mundial: la visión europea, históricamente, ha sido siempre mucho más restrictiva y garantista que la tradicionalmente adoptada en el entorno anglosajón, y no ha estado exenta de polémicas. No han faltado ni sanciones a empresas norteamericanas por supuestas violaciones de derechos a ciudadanos europeos, ni leyes artificiales o sin sentido que han servido para construir un entorno que, en ocasiones, dificulta tanto los negocios que se convierte en absurdo. Extremos como la tristemente famosa ley referente a las cookies, que además de no servir absolutamente para nada, se convierten en una molestia y prácticamente un mal chiste, o un “derecho al olvido” inexistente y artificial pero tristemente consagrado como una ley que acabará, sin ninguna duda, trayendo muchos más problemas que beneficios, acompañados de legislaciones fuertemente restrictivas, como la actual GDPR, pero que parecen responder a un consenso social expresado de manera amplia y generalizada.

En este momento, nos encontramos ante una cuestión curiosa: la GDPR aún no ha entrado en vigor, aún es pronto para saber si será una bendición o una estupidez, y va a obligar a todas las empresas que quieran desarrollar actividades en Europa a fuertes ajustes y a designar figuras responsables. Pero incluso antes de esa entrada en vigor, y a la luz de los recientes escándalos que han promovido una fuerte discusión en torno al concepto de privacidad, es elevada por Mark Zuckerberg al nivel de estándar mundial, de salvaguarda que le pone a cubierto de escándalos futuros, en modo “si a partir de aquí hay problemas, no serán culpa de mi compañía, que va a cumplir con los estándares GDPR”. ¿Y si la puesta en funcionamiento de GDPR termina siendo un sinsentido burocrático o un brindis al sol tan inútil como el de la ley de las cookies? ¿Y si las compañías encuentran formas de retorcer el texto de la ley para continuar con comportamientos que los usuarios consideremos abusivos? ¿O si, por el contrario, da lugar a un entorno tan profundamente restrictivo, que termina resultando un freno para la innovación en su conjunto? Todas estas consideraciones, con la directiva aún e un estado embrionario, son aún difíciles de hacer, pero a pesar de ello, Facebook se plantea su aplicación como un safe harbor, como una garantía, como una manera de asegurar que ya hace todo lo que puede para respetar la privacidad. En muchos sentidos, una victoria para Europa. Pero en otros, obviamente, un peligro si algo termina saliendo mal.

Por otro lado, la visión de Zuckerberg me sigue preocupando: no, el balance entre el negocio de Facebook y su comunidad de usuarios no es en absoluto sencillo, y me parece peligroso que lo piense así. El funcionamiento de la plataforma de Facebook no es tan simple como permitir o prohibir cosas: en el momento en que, por ejemplo, habilitó la posibilidad de buscar a un usuario por número de teléfono o por dirección de correo electrónico, eso se convirtió en una puerta de entrada para que no solo Cambridge Analytica, sino miles de compañías en todo el mundo, creasen aplicaciones para hacer scrapping y obtener los datos personales de millones de usuarios. Entendamos que, para un usuario, la posibilidad de buscar a alguien de sus contactos por cualquiera de esos dos campos es, en esencia, algo deseable e interesante… pero una vez creada la función, puede ser fácilmente abusada. Controlar algo así no es en absoluto sencillo: implica poner bajo sospecha prácticamente cualquier cosa que las compañías puedan hacer, regular de una manera mucho más restrictiva todo lo que puedan intentar hacer con los datos de los usuarios, asumir que con total probabilidad, intentarán cometer abusos. Esa actitud de prevención es exactamente lo contrario de como Facebook ha actuado históricamente, dado que hasta el momento, ha pecado mucho más de ingenuidad – o incluso de estupidez – que como fiscalizador o limitante. Por otro lado, aún es pronto para saber si las palabras de Zuckerberg y sus intenciones con respecto a la GDPR se refieren a una adopción incondicional, o simplemente a una serie de criterios inspiradores que podrían resultar amplios, vagos o poco limitantes.

Veremos cómo evoluciona la cuestión en el futuro. Pero de entrada, considerar a Europa y a su aún no testada GDPR como garante de la privacidad, francamente, no sé si es una buena o una mala idea.

 

IMAGE: Maxim Kazmin - 123RFLectura obligada de hoy es la carta que el creador de la web, Tim Berners-Lee, escribe con motivo del vigésimo noveno aniversario de su creación, titulada The web is under threat. Join us and fight for it, publicada simultáneamente en inglés, español, francés y portugués: un alegato que denuncia el asfixiante control de la web por parte de unas pocas compañías y que condiciona, tristemente, el que los próximos veinte años vayan a ser mucho menos innovadores que los veinte anteriores.

En este momento, innovar en la web se ha vuelto enormemente difícil: si no tienes sobre ti el paraguas de unas pocas compañías, tus posibilidades se limitan prácticamente a que te compre alguna de ellas: esas compañías controlan no solo los recursos disponibles y adquieren cualquier proyecto mínimamente innovador que consideren que pueden aprovechar, sino que, además, controlan la difusión de las ideas en la web, con consecuencias por todos conocidas.

Los problemas actuales de la web, el haber contribuido a la expansión de ideas radicales o haber manipulado la democracia condicionando el voto de muchas personas en función de falsos escenarios de confrontación, tienen que ver, además de con una ausencia de educación y de preparación para este tipo de situaciones en los usuarios, con los intereses económicos de estas compañías.

En este sentido, resulta interesantísimo leer, también hoy, a Zeynep Tufekci, profesora en la University of North Carolina y en Harvard, en su artículo en The New York Times titulado YouTube, the great radicalizer, en el que detalla un fenómeno que seguramente muchos hemos podido comprobar cuando entramos en el gran repositorio de vídeos y, tras terminar de ver aquello que acudimos a ver, nos encontramos con esas recomendaciones algorítmicas que pretenden que nos pasemos el resto del día en la plataforma, con recomendaciones que, aparentemente, no podemos dejar de ver. Según experimentos de la autora, esas recomendaciones, destinadas por supuesto a incrementar nuestro tiempo de consumo, tienden a ofrecernos contenido cada vez más radicalizado con respecto al que vimos anteriormente, lo que puede hacer que, durante las pasadas elecciones, si comenzabas viendo un vídeo de un discurso de Trump, terminases recibiendo recomendaciones de supremacistas blancos, de negacionistas del holocausto o de racismo exacerbado. Si por el contrario, comenzando desde una cuenta recién creada, entrabas para ver vídeos de Hillary Clinton o de Bernie Sanders, las recomendaciones de la plataforma te llevaban a ver vídeos conspiranoicos de agencias secretas del gobierno o de supuestas tramas gubernamentales tras el 11S. El fenómeno no se limitaba a la política: si entrabas a ver un vídeo sobre fitness, terminabas viendo contenido sobre ultramaratones. Si consumías vídeos sobre vegetarianismo, rápidamente pasabas al veganismo.

Presumiblemente, no se trata de intereses de Google o de YouTube, más allá del propio interés por que pases más tiempo con los ojos pegados a su plataforma. Si diseñas un algoritmo para incrementar a toda costa el tiempo que una persona pasa en YouTube, ¿cuál es el camino fácil para ese algoritmo? Escoger, de entre todo el contenido disponible, aquel que le ofrece contenidos similares a aquellos por los que demostró interés, pero cada vez más radicales, más exagerados, más extremos. El caso ilustra perfectamente el tema sobre el que Berners-Lee alerta en su carta: los intereses comerciales de unas pocas compañías están jugando un papel tan importante en la evolución y destino de la web, que se han convertido en un serio problema, dado que en muchas ocasiones, esas mismas compañías no entienden lo que tienen entre manos y sus posibles efectos secundarios. Con la excusa de hacer crecer los beneficios de unas pocas compañías, estamos llevando a cabo la radicalización de toda la sociedad, y generando problemas que la propia sociedad va a tener que solucionar.

Según Berners-Lee, la solución está en la regulación. Sinceramente, no lo tengo claro. La regulación, en este mundo compartimentado en el que cada país defiende sus propios intereses, se somete a la soberanía de cada territorio, y resulta completamente inútil en la mayoría de los casos, cuando no abiertamente perversa. La regulación de internet en determinados países persigue criterios abiertamente políticos como privar a sus ciudadanos de determinados contenidos o de la exposición a ciertas fuentes y perspectivas. Buena suerte intentando influir en la regulación de países como Irán, Turquía… o por supuesto China: que el papel de las Google, Apple, Facebook y Amazon en China lo jueguen Baidu, Alibaba y Tencent no es fruto de la mayor brillantez de estas compañías ni de su mejor conocimiento del entorno, sino de una regulación que sistemáticamente ha excluido a otras compañías extranjeras, del mismo modo que los Estados Unidos pretenden ahora hacer con compañías chinas como Huawei o con ZTE. La regulación, en un mundo en el que hemos superpuesto una red global a una regulación parcelada, tiene ahora pocas posibilidades de enderezar las cosas, me temo.

La web es un proyecto en construcción, y nadie dijo que fuese a ser sencillo. Es, seguramente, uno de los proyectos más ambiciosos que hemos visto en la historia, y como tal, está sometido a enormes intereses de cara a su control. En cualquier caso, lecturas muy interesantes, fundamentales, y de fuentes más que autorizadas para decir las cosas que dicen. Si nos lleva a pensar un poco sobre estos temas y a ser un poco más conscientes de determinados fenómenos, ya habremos conseguido un buen objetivo.

 

IMAGE: Jrg Schiemann - 123RFLa regulación es, sin duda, uno de los aspectos más interesantes y complejos cuando consideramos los procesos de innovación. El conjunto de leyes, normas, prácticas, directrices, restricciones y conductas que definen el marco en el que se desarrolla una actividad determinada se convierte, en muchas ocasiones, en oportunidades que el innovador explota por considerar que, en el nuevo entorno definido por una tecnología determinada, pierde todo o parte de su sentido. Pretender mantener la regulación a toda costa, incluso cuando las evidencias demuestran que ha perdido su sentido, suele identificarse con intentos de proteger al incumbente o al competidor tradicional frente a los nuevos entrantes, y con la generación de ecosistemas que coartan la innovación.

Los ejemplos son multitud: la regulación del transporte urbano en automóvil mediante un sistema de licencias tuvo sentido en su momento para evitar la llamada “tragedia de los comunes” (ciudades en las que cualquiera, sin normas ni control alguno, podía dedicarse a transportar pasajeros, con lo que ello conllevó de descontrol en cuanto a tarifas, negociaciones individuales o presencia de malos actores que se aprovechaban para su propio beneficio), pero pierde completamente su sentido cuando las normas de actuación son dictadas por plataformas en las que los conductores son evaluados de manera continua y las condiciones son fijadas de manera centralizada. Del mismo modo, parece evidente, por ejemplo, que si bien es necesario exigir a los establecimientos turísticos una normativa en cuanto a extintores, salidas de emergencia y procedimientos de evacuación, hacer lo mismo con apartamentos individuales que se alquilan a corto plazo no tiene ningún sentido, y tratar de convertir el requisito en exigible generaría una situación absurda y de imposible cumplimiento. Así, compañías como Cabify, Uber o Airbnb, tras poner en evidencia el escaso sentido que tenía mantener algunas de las regulaciones existentes en sus respectivas actividades, se convierten en compañías millonarias que aprovechan esa nueva situación y llegan, incluso, a generar procesos de adaptación de la regulación al nuevo panorama.

Sin embargo, la regulación no es, por principio, absurda o innecesaria. La regulación es el proceso por el que las sociedades humanas se otorgan reglas que facilitan el desarrollo de actividades en las condiciones en las que esas sociedades estiman oportunas. Y si bien están, como todo, sujetas a los cambios del entorno, pensar que son completamente innecesarias implica ser tan ingenuo como para pretender que los aspectos de la naturaleza humana que había que prevenir y que les dieron origen han desaparecido, algo que no suele ocurrir.

Así, los ejemplos que demuestran que la regulación era en efecto necesaria también comienzan a ser multitud: en YouTube, el ecosistema que en muchos sentidos ha sustituido a la televisión tradicional y ha generado una caída de las barreras de entrada que permite que prácticamente cualquiera pueda crear y difundir contenidos audiovisuales, nos encontramos ahora con un problema que resultaba perfectamente esperable: al retirar de facto las protecciones sobre la producción de contenidos que implican la participación de niños, surgen padres dispuestos a cometer auténticas barbaridades con sus hijos con el fin de obtener el éxito y la viralidad en YouTube, y que, como consecuencia, someten a los niños a auténticas torturas, a sesiones maratonianas delante de la cámara o a auténtico acoso en busca del plano, el tono y el gesto adecuado a cada situación. En este caso, la regulación tal y como estaba planteada se convierte en imposible a nivel de control, y requiere la aparición de procesos regulatorios nuevos, como podría ser el excluir todos los vídeos que contengan niños del sistema de publicidad del canal, algo a lo que YouTube, de momento, ha mostrado escasa sensibilidad.

Del mismo modo, hoy tenemos un reportaje en profundidad de The Outline titulado Bribes for blogs: how bands secretly buy their way into Forbes, Fast Company and HuffPost stories, un auténtico secreto a voces que todos los que participamos en medios conocemos desde hace muchísimo tiempo, y que parece intensificarse con el paso del tiempo. En este caso, no hablamos tanto de una regulación como tal, sino de un conjunto de normas y buenas prácticas: se supone que todo artículo esponsorizado o producto de un pago debe ir identificado como tal, y aunque las infracciones a ese principio han sido habituales a lo largo de los tiempos y muy anteriores a la llegada del canal digital, lo que tendía a ocurrir en muchos casos era, simplemente, que incumplir ese principio tendía a llevar aparejada una pérdida de prestigio y de valor referencial de la publicación. Ahora, el problema va mucho más allá. Cada semana, recibo una media entre tres y cuatro propuestas para escribir artículos esponsorizados, y eso que hablamos de una publicación relativamente minoritaria que ni del lejos tiene los números y la relevancia de otras muchas. Cada vez que escribo un artículo en Forbes o en otras revistas, el número de peticiones es aún mayor, y llega a resultar, en ocasiones, agotador. En esas condiciones, poder afirmar que jamás he escrito un artículo esponsorizado se convierte en una marca de prestigio que, por otro lado, tiene un valor relativo cuando existen personas dispuestas a asegurar – sin prueba alguna, pero a asegurar igualmente – que me han pagado por escribir tal o cual cosa.

En el caso de publicaciones profesionales, la situación es aún más compleja: en publicaciones en las que tengo implicación directa he llegado a ver en varias ocasiones como se prescindía de manera disciplinaria e inmediata de redactores que habían recibido pagos o prebendas a cambio de escribir de manera elogiosa de los productos de una marca, pero obviamente, la práctica es habitual y de difícil control. En principio, cada vez que un colaborador de una publicación inserta en ella un artículo esponsorizado sin declararlo como tal, estamos ante un fallo a dos niveles: por un lado, del proceso de publicación. Toda publicación debería contar con sistemas de control que, ante un artículo con “aspecto” de ser esponsorizado, desencadenase un proceso de inspección y de cuestionamiento del mismo. Por otro, un problema de ética: el colaborador que cobra a la marca al tiempo que percibe un pago por publicar está, en realidad, robando a la publicación, que en otras condiciones podría obtener un pago de la marca por la inserción de publicidad o de un formato de branded content, además de fallar a su audiencia ocultándoles información fundamental para juzgar la veracidad del artículo. Los casos, sin embargo, parecen acumularse, y los correos que se reciben con ofertas similares parecen asumir, cada vez más, que ese tipo de procesos, desgraciadamente, se han normalizado.

No, las regulaciones no estaban ahí por casualidad. Suponer que por el hecho de que un canal o un entorno esté recién definido y sea diferente, esas regulaciones ya no van a ser necesarias es de una ingenuidad terrible. Cuando Susan Wojcicki, de YouTube, afirma que ha visto cómo “algunos malos actores explotan nuestra apertura para engañar, manipular, hostigar o incluso dañar”, eso no resulta en absoluto sorprendente: lo sorprendente es, de hecho, que alguien sea tan absurda y estúpidamente ingenuo como para suponer que eso no iba a pasar. Si en el ecosistema anterior había una serie de protecciones para impedirlo, no era por casualidad, ni porque alguien tuviese ganas de fastidiar o de coartar libertades: estaban ahí porque eran necesarias, y crear una plataforma que no las posee es, sencillamente, fomentar ese tipo de comportamientos. Cuando una serie de publicaciones de nuevo cuño – o de toda la vida, pero que han decidido levantar determinadas restricciones – se encuentran con que hay colaboradores que se montan un auténtico negocio a base de colocarles verdaderos publirreportajes por los que han cobrado como si fuesen contenido genuino, deberían plantearse que los códigos de buenas prácticas estaban ahí por algo, expulsar a esos colaboradores con todo tipo de escarnio público y hacer un verdadero propósito de enmienda, restaurando todas las protecciones que estaban ahí previamente para evitarlo.

Replantearse la regulación en función de la innovación es algo perfectamente válido, y en ocasiones, demuestra que, efectivamente, parte de esa regulación puede haber dejado de tener sentido. Las cosas nunca son blancas o negras: pretender mantener la regulación a toda costa coarta la innovación, y muchas veces, no solo no tiene sentido, sino que se convierte en una defensa a ultranza de los jugadores tradicionales. Pero renunciar a la experiencia y al consenso social que dio lugar a determinadas regulaciones en virtud de una supuesta “innovación que lo cambia todo” es, simplemente, condenarse a repetir los mismos errores que se cometieron anteriormente, y a veces en edición corregida y aumentada. Pensar que, por sistema, la regulación ya no es necesaria, es en el mejor de los casos, ingenuidad, y en el peor, un intento de crear atajos para ganar dinero hasta que la situación se convierta en insostenible. Un comportamiento calificable de muchas maneras, pero no precisamente como ético. Algunos deberían plantearse hasta qué punto, con la excusa de la innovación, han creado auténticos monstruos. Monstruos que, además, cualquiera con dos dedos de frente sabía perfectamente que iban a surgir.