IMAGE: Clker - CC0 Creative CommonsFinalmente, todo indica que Twitter se ha decidido a actuar con decisión con respecto al que era su gran problema, del que habíamos hablado en numerosas ocasiones: la escasa calidad de una red infestada de cuentas falsas, bots, trolls y otras especies desagradables: durante los meses de mayo y junio, la compañía ha suspendido unos setenta millones de cuentas, más de un millón al día, en un intento por reducir los usos perniciosos de su red, y todo indica que la tendencia continúa en lo que llevamos del mes de julio.

La compañía está llevando a cabo esta limpieza en un momento en el que podía presumir de tener las mejores cifras de crecimiento de los últimos tiempos, pero lógicamente, una operación de limpieza semejante va a afectar esa evolución, y posiblemente conlleve que la compañía muestre crecimiento negativo en su número de usuarios durante algún tiempo. Tras la adquisición de Smyte, todo indica que, finalmente, la compañía ha terminado de clarificar su posición sobre la toxicidad y la supuesta protección de la libertad de expresión a toda costa: los que se definían a sí mismos como “the free speech wing of the free speech party”, se han dado cuenta de que, en la dura realidad, las posiciones idealistas tienen un límite, y que es imprescindible balancear la libertad de expresión con el potencial que tiene esa libertad para evitar que otros la tengan. En palabras de Del Harvey, VP de Seguridad y Confianza de la compañía desde hace ya más de ocho años, “la libertad de expresión no significa mucho si las personas no se sienten seguras”. 

La compañía parece finalmente caer en la cuenta de que mostrar un gran crecimiento de usuarios, aunque resulte vistoso de cara al accionista, es un indicador que, en realidad, no sirve para nada en una estrategia sostenible de largo plazo si ese crecimiento se debe fundamentalmente a granjas de seguidores falsos, a cuentas falsas y bots creados por actores que intentan simular seguimientos multitudinarios que no existen, o trolls que pretenden silenciar a otros mediante la agresión.  Como comentábamos el otro día, el gran problema de muchas compañías, la santificación del indicador equivocado hasta el punto de llegar a pensar que una base de datos de usuarios es siempre mejor cuanto más grande, aunque en realidad termine siendo un enorme montón de basura inútil o potencialmente perjudicial, una fuente de sanciones o de problemas.

En el caso de Twitter, el momento de verse prestando testimonio ante el Congreso de los Estados Unidos para intentar explicar el uso por parte de Rusia de cuentas falsas para influenciar las elecciones presidenciales puede haber actuado como una llamada de alerta: el número de usuarios no necesariamente es un indicador adecuado de crecimiento, y podría ser el momento de sacar la basura. Mejor tener una red más pequeña de usuarios genuinos, con cara y ojos – o de bots que supongan servicios útiles y con sentido – que crecer mucho gracias a fenómenos artificiales que, además, terminan generando problemas evidentes. La cada vez más patente necesidad de diferenciar estrategias de crecimiento a toda costa, frente a otras más orientadas al crecimiento sostenible. Perder número de usuarios, para intentar mantener una red en la que sea posible un uso razonable, un sitio donde puedas compartir cosas sin que un clima de profunda negatividad y ataques constantes te lleve a arrepentirte de haberlo hecho y a pensar que estás mejor abandonando esa red o limitándote a utilizarla de modo pasivo, como simple lurker.

Si Twitter finalmente ve la luz y mantiene esta actitud, bienvenida sea. ¿Puede llegar a ser capaz de eliminar todos los trolls y las cuentas falsas? Posiblemente no. La lucha entre quienes crean grandes cantidades de cuentas para simular un apoyo amplio y los sistemas de detección es similar a la de la película Blade Runner: robots intentando parecer humanos simulando acciones habituales en el comportamiento humano, hasta el punto de que es preciso que la compañía se arme con  algoritmos y pruebas diagnósticas que los descubran, una auténtica carrera de armamentos entre la inteligencia artificial necesaria para que una cuenta parezca genuina frente a la inteligencia artificial necesaria para descubrir a las que no lo son. Pero todo esfuerzo en ese sentido puede terminar siendo una buena inversión, una que realmente permita que un usuario pueda utilizar Twitter con normalidad, sin sentirse en medio de un montón de basura, rodeado de trolls que le insultan y amenazan por cualquier motivo, un sitio en el que arriesgarte a compartir una opinión conlleva casi tener que hacerse un seguro de vida. Esa progresión del nivel de toxicidad, decididamente, no era sostenible. Una triste metáfora que dice mucho de las sociedades humanas, pero que toda compañía, sobre todo en el ámbito de lo social, va a tener que considerar en el futuro.

 

Guerra digital - Cambio

Lucía Burbano, de la revista mexicana Cambio, me envió algunas preguntas por correo electrónico acerca del fenómeno de las fake news y sus cada vez más habituales usos organizados, y ha incluido una parte de ellas en su artículo titulado “Guerra digital” (ver en pdf), publicado hace una semana.

Hablamos sobre el uso de este tipo de herramientas de desinformación en esferas militares o en la política, de las posibilidades que tenemos para diferencias noticias verdaderas de noticias falsas en un entorno en el que las barreras a la publicación descienden para todos, del papel de los llamados verificadores o fact-checkers y de la responsabilidad de las propias redes sociales, del uso creciente de bots y herramientas basadas en inteligencia artificial, y de la necesidad de desarrollar el pensamiento crítico a través de la enseñanza para intentar enfrentarnos a esta problemática en el futuro.

Precisamente hoy aparecen noticias sobre el gobierno indio que, ante la escalada de linchamientos y palizas a ciudadanos inocentes derivados de rumores maliciosos difundidos a través de WhatsApp en determinadas zonas rurales (que incluso llegaron a provocar, en algunos casos, la suspensión temporal del acceso a internet en regiones completas), reclama a la compañía que detenga estos rumores, como si realmente fuese el papel de un canal de comunicación decidir sobre la veracidad o falsedad de las conversaciones que se desarrollan a su través. ¿Pediría seriamente ese ministro a una compañía telefónica que detuviese las conversaciones entre sus abonados “si dicen mentiras”? Basta con esa comparación para entender la barbaridad de la que estamos hablando: WhatsApp no solo es un canal de comunicación equivalente a una compañía telefónica, sino que, además, gestiona la información que se intercambia a su través con protocolos robustos de cifrado, con claves de un solo uso que ni siquiera la propia compañía conoce, lo que convierte en prácticamente imposible cualquier tipo de monitorización preventiva. La compañía podrá intentar colaborar, pero realmente, el problema únicamente se puede solucionar, y no de manera completa, cuando se incida en el desarrollo del pensamiento crítico desde las primeras etapas de la educación, con campañas de información o con mensajes que inviten a la población a comprobar la veracidad de sus fuentes.

A continuación, siguiendo mi práctica habitual, el texto completo del cuestionario que intercambié con Lucía:

P. ¿Es la propaganda digital una continuación de los métodos empleados tradicionalmente en el ejército y la política? O las características de la red (velocidad y facilidad para compartir un mensaje, omisión de fuentes o falta de verificación de las mismas) hace que cuando hablamos de la manipulación intencionada del mensaje, este sea más peligroso?

R. En realidad, hablamos del aprovechamiento de una vulnerabilidad de nuestra sociedad: hemos desarrollado una serie de herramientas, las redes sociales, que cuentan con sus propios códigos y mecanismos para remunerar la participación, tales como Likes, comentarios y número de seguidores, pero hemos renunciado a educar a la sociedad en su uso. Durante generaciones, hemos acostumbrado a la sociedad a que si algo estaba en letra impresa o salía en televisión, era confiable, y ahora nos encontramos con un descenso brutal en las barreras de entrada a la publicación, con un porcentaje cada vez más elevado de personas que acceden a las noticias a través de herramientas como Facebook o Twitter, y con una indefensión de una sociedad que nunca ha desarrollado el pensamiento crítico. Las redes sociales pueden desarrollar mecanismos para intentar mejorar la situación, pero la gran realidad es que el problema solo se solucionará generacionalmente, y únicamente si incorporamos en la educación mecanismos para desarrollar el pensamiento crítico, la comprobación de fuentes, la verificación de información, etc. que a día de hoy, únicamente se enseñan en las facultades de periodismo.

 

P. Las líneas entre una noticia verdadera y una falsa están cada vez más difuminadas. ¿Cómo podemos distinguirlas para evitar que la manipulación o desinformación gobiernen las decisiones del ciudadano/votante? ¿Somos inmunes a la manipulación? ¿O el componente subjetivo y emocional de muchos de los debates e informaciones falsas que se comparten en la red es tan elevado que estamos perdiendo la capacidad de ser más críticos?

R. Cuando las barreras de entrada a la publicación descienden drásticamente, el papel de la credibilidad y la reputación de las fuentes crece. En general, tenemos que aprender a desarrollar el pensamiento crítico, lo que implica verificar la fuente, tratar de localizar referencias adicionales, contrastar con otras fuentes, etc. El problema es que desde nuestra educación más básica, partimos de contarle a los niños que “la verdad” está en las páginas de un libro, en una única fuente, y eso lleva a que no dominen herramientas como la búsqueda, y tiendan a quedarse, por ejemplo, sistemáticamente con el primer resultado de Google, sin más reflexión. Tendríamos que prohibir los libros de texto, introducir el smartphone en el aula, y pedir a los niños que buscasen los contenidos en la red, para así educarles en estrategias de búsqueda, cualificación de fuentes y desarrollo de pensamiento crítico. Esa modificación de la enseñanza resulta cada vez más importante, y un auténtico reto que tenemos como sociedad.

 

P. Existen varios servicios o sitios web que identifican las noticias e informaciones que son falsas. ¿Cómo funcionan y son la solución?

R. Los fact-checkers o verificadores son una buena solución, pero lamentablemente, dado que trabajan con personas, tienden a ser lentos, válidos para una verificación con perspectiva o para parar la difusión de un rumor, pero no para evitar que se inicie o que se difunda durante un tiempo. Su importancia es creciente, pero no sustituyen al desarrollo de un juicio o pensamiento crítico.

 

P. Dado que las redes sociales y otras plataformas cuentan con un número de usuarios superior al de cualquier medio de comunicación tradicional o digital, ¿deberían estas empresas monitorear, eliminar o sancionar de forma más exhaustiva a los usuarios que propagan la desinformación o que generan cuentan falsas?

R. Las redes sociales pueden llevar a cabo muchas acciones correctoras, como controlar, por ejemplo, la difusión de rumores, falsedades, o mensajes relacionados con el discurso del odio. Sin embargo, es peligroso confiar en las acciones de estas compañías, dado que hacerlo equivale a ponerlas en una posición de árbitros que no les debería corresponder, y menos cuando hablamos de cuestiones que tienen que ver con el pensamiento o la opinión. Obviamente, las compañías que gestionan las redes sociales deberían evitar acciones coordinadas o comportamientos marcadamente antisociales, como deberían evitar la difamación, la calumnia o el libelo, pero eso no es tan sencillo como parece en un entorno social. Del mismo modo que no podemos controlar lo que una persona le dice a otra en la barra de un bar, resulta difícil pensar que podamos hacerlo con todas las comunicaciones en redes sociales: habrá que diferenciar el ámbito y el tipo de comunicación, la intencionalidad, la escala a la que se produce y, sobre todo, educar a la sociedad en el uso de su herramienta, con todo lo que ello conlleva.

 

P. ¿Cuándo empezaron a emplearse la Inteligencia Artificial y los algoritmos para crear bots? ¿Por qué son estos tan dañinos y no se contrarrestan con las mismas armas?

R. Los bots no son necesariamente dañinos. Hay bots muy útiles, muy interesantes, y estarán en nuestra vida en el futuro con total seguridad: muchas de nuestras interacciones a lo largo del día tendrán un chatbot o bot conversacional al otro lado. Lo que puede ser dañino es el uso de la tecnología para crear bots que simulen usuarios reales: es un fraude, supone un problema de gestión para las compañías que gestionan las redes o para las que se anuncian en ellas, y nos pone en una situación similar a la de la película Blade Runner, con compañías desarrollando bots fraudulentos y otras compañías tratando de detectarlos mediante todo tipo de tecnologías basadas en machine learning e inteligencia artificial. Al principio, los bots eran simples cuentas que seguían a un usuario,. Cuando se las empezó a descartar por inactivas, empezaron a desarrollar pautas de actividad más o menos aleatorias, como seguir a otros usuarios, retuitear o dar Like a algunas publicaciones, etc. Ahora, su actividad es cada vez más difícil de prever, y por tanto, son más difíciles de identificar. Eso supone una “escalada armamentística” en el desarrollo de machine learning cuyo resultado no es fácil de prever.

 

P. Algunos de estos mensajes se propagan desde los propios gobiernos con el fin de desestabilizar procesos electorales en otros países. Aunque las injerencias políticas no son nada nuevo, dado que el sector digital se mueve más rápido que el sistema legal, ¿nos encontramos ante una nueva tipología de crisis diplomática?

R. Sin duda, es un arma que muchos estados están utilizando, unos con más escrúpulos que otros, y que habría que tratar como un problema serio. Que un presidente de los Estados Unidos se comporte como un troll impresentable y carente de todo sentido común en las redes sociales es mucho más que una anécdota, supone un problema serio, y debería llevarnos a revisar las reglas de la diplomacia. Que algunos países consideren razonable atacar las infraestructuras de otros o lanzar campañas de manipulación a través de la red supone algo muy serio, que es preciso elevar al estatus de conflicto internacional, y apelar a los foros más importantes en este ámbito.

 

P. Pensando en clave futuro, ¿la propaganda digital va a seguir creciendo y evolucionando o entrarán en escena mecanismos de censura o filtros que diluyan su presencia?

R. La propaganda digital y las fake news persistirán hasta que, como sociedad, seamos capaces de desarrollar mecanismos de pensamiento y razonamiento crítico, de introducirlos en el curriculum educativo y de convertirlos en un cimiento de la interacción social.

 

WhatsApp fake newsA medida que la tecnología, el periodismo, los gobiernos y una gama cada vez más amplia de actores intentan buscar soluciones contra la difusión de noticias falsas en redes sociales, más nos vamos dando cuenta de que, en realidad, el problema se debe a una ausencia de educación en el uso de una herramienta que cuenta con potentes sistemas que incentivan la compartición, unido a una cultura en la que mecanismos como la verificación, el contraste de fuentes o el desarrollo del pensamiento crítico no forman parte aún del proceso educativo.

Podemos desarrollar infinidad de herramientas; sistemas de verificación, fact-checkers o algoritmos para intentar combatir la difusión de las llamadas fake news, pero en último término, cuando las barreras de entrada a la publicación y difusión bajan dramáticamente, resulta imposible evitar que una persona que está deseando creer algo participe en su difusión a muchas otras personas que, probablemente, piensan igual que ella. Las únicas soluciones verdaderamente sostenibles, seguramente, están relacionadas con el cambio del proceso educativo y el desarrollo de habilidades  en el conjunto de la sociedad.

En el medio de toda la polémica sobre la circulación de noticias falsas, surge un canal que no es estrictamente y como tal una red social, pero sí juega a menudo un papel similar: estrictamente, WhatsApp y los sistemas de mensajería instantánea son canales interpersonales de comunicación, pero cuando la comunicación se estructura en grupos y las personas se convierten en vectores que reenvían y circulan información entre esos grupos, lo que tenemos es, en realidad, un mecanismo perfecto para la difusión, que puede ser apalancado por cualquier interesado en la creación de estados de opinión.

Recientemente, en una de las regiones centrales de India, dos jóvenes que detuvieron su automóvil para pedir indicaciones fueron linchados por una multitud que creyó que eran, tal y como habían leído en un mensaje ampliamente difundido por WhatsApp, criminales que buscaban matar a personas para comerciar con sus órganos. El meteórico crecimiento de WhatsApp ha convertido la plataforma de mensajería en un canal perfecto por el que circulan bulos de todo tipo y que, al no ser un canal público, se convierte en una caja negra que dificulta sensiblemente las labores de seguimiento y verificación. Personas de toda condición que creen hacer un favor a sus compañeros de grupo alertándolos sobre supuestas “noticias” que informan sobre la elevación de la alerta terrorista, sobre un nuevo tipo de robo o estafa, sobre el tremendo peligro de unos supuestos smartphones explosivos abandonados en la calle o sobre teorías conspiranoicas de todo tipo, pero que también pueden ser adecuadamente instrumentalizados para difundir noticias con propósito de manipulación social o política.

La evolución de las tecnologías implicadas en la lucha contra las fake news puede verse de día en día. Desde servicios de verificación como Verificado (México), Maldito Bulo (España) o las ya veteranas Snopes o PolitiFact (Estados Unidos), hasta herramientas basadas en blockchain que etiquetan las noticias en el navegador. Para cada avance en el desarrollo de, por ejemplo, deep fakes en vídeo que permiten alterar secuencias o voces para hacerlas parecer genuinas (¿cómo no lo voy a creer y a circular, si lo he visto con mis propios ojos?), surgen startups con rondas de capital interesantes centradas en su análisis y detección. Una cuestión central, en cualquier caso, sigue persistiendo: cómo conseguir que una persona no consuma o circule una información que está personalmente interesado en creer, por encima de cualquier sistema de verificación, porque coincide con su visión del mundo.

Hablar del tema, en cualquier caso, ayuda a generar una cierta conciencia: no, quien te envía esos mensajes a través de un grupo de WhatsApp no es necesariamente alguien interesado en tu bienestar, sino muy posiblemente, el fruto de un esquema de manipulación diseñado para esparcir un bulo determinado de manera interesada. La manipulación masiva recurriendo a herramientas como WhatsApp se ha convertido en algo tangible y demostrable, lo que nos obliga a tomarnos cada cosa que recibamos a través de ese canal y que tenga capacidad para trascender a cambios en nuestra forma de ver la sociedad con el más que nunca necesario grano de sal. Cuando leas o cuentes algo, piensa que si la única referencia que tienes es “me lo pasaron por WhatsApp” o “lo leí en WhatsApp”, es muy posible que sea un bulo.

 

Twitter toxicFinalmente, tras muchos años de abusos que llegaron incluso a amenazar la supervivencia de la compañía, Twitter parece que se plantea hacer algo con respecto a la toxicidad que impera en su plataforma, y adquiere Smyte, uno de los servicios que muchos utilizaban para combatirla. Una compañía formada por unas veinte personas, que había recibido hasta el momento unos $6.3 millones de financiación,

Las soluciones de la compañía, fundada en la incubadora Y Combinator en 2015 por tres ingenieros especializados en seguridad y lucha contra el fraude o el spam, permiten poner coto mediante reglas de machine learning derivadas de los datos o de las propia compañía a todo tipo de comportamientos indeseables en la red, desde estafas o phishing, hasta cuestiones como spam, cuentas falsas, bullying, hate speech, insultos o trolling. Inmediatamente tras el anuncio de la adquisición, Twitter cerró la API de Smyte, dejando a los clientes actuales de la compañía sin servicio y provocando airadas quejas.

La interpretación de Twitter de la libertad de expresión siempre me ha llamado la atención por su extremada ingenuidad. La libertad de expresión es, por supuesto, una causa por la que luchar y algo que siempre es necesario defender, pero que al mismo tiempo, precisa de reglas que permitan evitar un abuso que forma parte de la condición humana. Al proteger una supuesta libertad de expresión por encima de todo y sin reglas, se atenta claramente contra la liberta de expresión de quienes son atacados, generándose un entorno que termina convirtiéndose en una espiral de toxicidad, insultos y comportamientos organizados para silenciar o promover un pensamiento único, una plataforma que termina dando más voz a los que acosan, insultan y exhiben un comportamiento más proactivamente agresivo. El balance entre libertad de expresión y una plataforma saludable es algo que Twitter, claramente, nunca ha sabido gestionar bien, y que ha llevado a muchos usuarios a dejar de utilizarla o a adoptar una actitud de simple escucha, sin participación activa.

¿Puede Twitter, embarcada tras varios años discretos en una vuelta al crecimiento en un período de fuerte actividad, ser capaz de introducir reglas que controlen la agresividad, excluyan a los trolls, a los que insultan o a los que organizan estrategias para difundir interesadamente ideologías basadas en el odio? El servicio de Smyte tiene una reputación buena entre sus usuarios y parece que no es un mal primer paso, pero completarlo exigiría el desarrollo de reglas que permitan una exclusión efectiva de quienes violan las reglas. De poco sirve cerrar una cuenta si la persona u organización que se encuentra tras ella puede volver a abrirla con otro nombre de manera prácticamente inmediata y darle visibilidad simplemente siguiéndola desde otras cuentas o comprando seguidores. Es necesario poner en marcha servicios que permitan una exclusión efectiva basados en digital fingerprinting, que al menos dificulten de manera real el mantenimiento de comportamientos o estrategias basadas en el uso de la agresividad.

En ese sentido, existen cada vez más iniciativas para gestionar este tipo de comportamientos. La compañía española eGarante, por ejemplo, ofrece desde hace poco un servicio para prevenir y combatir el acoso en redes sociales como Twitter, basada en la disuasión: permite una recogida de pruebas de esos comportamiento con total validez jurídica certificando las interacciones aunque estas sean posteriormente eliminadas, lo que hace posible una eventual actuación judicial. Una herramienta que conlleva una cierta actitud de “judicialización de la conversación” que posiblemente solo se justifique en casos muy determinados, pero que enmarca al menos una manera de disuadir determinados comportamientos, como las amenazas o la difamación, para los que solo puede entenderse el recurso a la ley como respuesta válida.

Por supuesto, no es sencillo. Diferenciar la agresividad sistemática de la mera sátira o de la crítica razonable no es sencillo, un ese proceso en el que puede haber numerosos falsos positivos, cada uno con una historia detrás. Hay personas que promueven el odio sin necesidad de utilizar términos malsonantes o insultos, simplemente utilizando la ironía o la sátira, que lo hacen únicamente de manera ocasional, o que pretenden pasar por rebeldes, por inconformistas o por iconoclastas mediante ese tipo de estrategias. Algunos muy visibles o con mucho seguimiento, capaces de organizar auténticas revueltas de usuarios o amenazas de boicot si son silenciados. Sin embargo, es algo necesario, como lo es el desarrollo de reglas de convivencia social, si se pretende mantener una estrategia sostenible. La adquisición de Smyte puede marcar un momento interesante en la historia de Twitter: ¿abandona finalmente la compañía su ingenuidad casi infantil en la defensa de una libertad de expresión sin reglas que ha llegado a perjudicar fuertemente su propuesta de valor, o seguirá diciendo que si te insultan, lo mejor es que adoptes la estrategia del avestruz y cierres los ojos para no verlo?

 

IMAGE: CC0 Creative CommonsEl pasado miércoles 20, la Comisión de Asuntos Jurídicos de la Unión Europea (JURI) votó a favor de la llamada Directiva de Copyright, una propuesta monstruosa trabajada al mejor estilo de los lobbies del copyright, con artículos introducidos “misteriosamente” en el último momento mediante procedimientos irregulares, y que, en caso de ser aprobada en votación plenaria por el Parlamento Europeo, supondrían el mayor desastre imaginable para la internet que conocemos. Expertos de todo el mundo se han pronunciado amplia y claramente en contra de esta propuesta y han dirigido cartas a las autoridades de la Unión Europea al respecto, pero por el momento, la siniestra propuesta sigue su curso.

¿Que puede ser tan malo? Cuestiones que, francamente, resultan casi inimaginables, como un Artículo 13 que obliga a las plataformas a instalar filtros y a convertirse en policías del copyright que tendrían que vigilar todo lo que subimos a ellas para impedir, mediante sistemas automatizados del tipo del conocido ContentID de YouTube, que subiésemos cualquier material reclamado como propiedad de alguien. Imaginemos todo lo que ello conlleva en cuanto a falsos positivos, errores, derechos de usos razonables como la parodia o el uso académico, etc. y problemas de todo tipo para el usuario, porque la legislación está esencialmente diseñada no para él, que es directamente tratado como criminal aunque no lo sea, sino para hacer felices a los grandes propietarios de derechos. ¿Imaginas intentar subir a la red cualquier meme, que puede contener una fotografía, un logo o cualquier otro elemento tomado de cualquier sitio, y encontrarte con que la plataforma te lo impide? ¿O que en cualquier vídeo aparezcan notas de una canción porque alguien pasaba por allí reproduciéndola en un coche con la ventanilla abierta? Pensemos en los miles de errores cometidos por YouTube en este sentido a lo largo del tiempo… pues esos han sido cometidos por una plataforma que, desde un punto de vista técnico, es razonablemente buena. ¿Qué ocurrirá cuando esto se generalice? ¿Quién va a argumentar con un algoritmo elementos como la ironía, la parodia, el derecho de cita, el uso académico, etc.?

Otro ominoso artículo, el 11, consagra el desastre del llamado link tax, ya tristemente conocido en España por haber provocado el disparate que supuso la desaparición de Google News, convirtiendo a nuestro país en la única democracia del mundo en el que este servicio no funciona. En caso de ser aprobado, haría que citar incluso los fragmentos más pequeños de artículos y noticias publicadas por los medios conllevase la necesidad de una licencia, aplicable a la reproducción de enlaces en cualquier sitio, y con una duración de veinte años. Es exactamente como si alguien pretendiese cobrarnos por comentar las noticias en un bar: una medida que jamás servirá para salvar a ningún periódico, y que impone una interpretación profundamente retrógrada, inmovilista y talibán del copyright. Un auténtico desastre contra el que ya se están organizando protestas, aunque tristemente, como ya sabemos de episodios anteriores, a los lobbies del copyright, las protestas les importan bien poco.

Según la absurda visión de los editores de prensa, su negocio necesita, para ser viable, que cambiemos internet para que todo lo que se suba pase por una vigilancia exhaustiva, y para que todo lo que vincule a sus noticias les genere un pago. Y en lugar de considerar eso directamente una majadería sin sentido y decirles simplemente que se busquen otro modelo de negocio, resulta que el Parlamento Europeo se está planteando nada menos que cambiar la naturaleza y el funcionamiento de toda la red. Lo que estamos viendo es que lo que pretende Europa no es adaptar el copyright a la era internet, sino nada menos que cambiar internet para que acomode un modelo de copyright que no difiere del creado por el Statute of Anne en el año 1710. Si algo resulta evidente es que ese concepto de copyright, anclado en la idea de “cobrar por copia”, no tiene ningún sentido en una era de internet en la que todo, cada clic, supone hacer una copia, y cada consulta de una página supone una descarga. Pretender que el copyright no cambie, que se mantenga inalterado, y que sea la naturaleza de internet la que lo haga, cambiando la esencia de acciones tan fundamentales y definitorias de la red – y ya de nuestras vidas – como el hipervínculo o la compartición en redes sociales es una prueba de la disfuncionalidad mental de una buena parte de los miembros del Parlamento Europeo. O de la desmesurada e irracional influencia de unos lobbies del copyright que, lejos de mirar por el bien común, por la remuneración de los autores o por la viabilidad del trabajo creativo, solo miran, en realidad, por la preservación a toda costa de los beneficios de los modelos de negocio de industrias del pasado.