IMAGE: Michael Maggs - CC BY SAUna vez más, el enésimo académico enfadado que, al ver cómo las compañías tecnológicas se convierten en los principales centros de atracción para mentes brillantes de la universidad, viene a despreciar el trabajo de investigación que se desarrolla en esas empresas, a minimizar su importancia y a intentar poner patéticamente distancia con “la verdadera ciencia”, que según él, solo puede hacerse en las universidades. Según algunos académicos, las universidades son los únicos sitios en los que un investigador puede trabajar para estar legitimado como tal, una actitud completamente absurda, reduccionista y que, sobre todo, consagra una brecha enormemente perjudicial que no debería existir.

La barrera entre la academia y la industria es tan vieja como cualquiera de las dos instituciones, la he experimentado y sufrido a lo largo de veintiocho años de carrera profesional, y sigue siendo igual de inútil, absurda y dañina que cuando empecé a ser consciente de ella. Pretender que “la ciencia solo se desarrolla en la universidad”, en una época en la que las compañías se han convertido en el gran motor del cambio de la sociedad, es tan profundamente retrógrado y limitado que asusta.

Empecemos por lo evidente: las instituciones académicas y el mundo corporativo tienen, obviamente, distintas métricas para valorar el desempeño. En la industria, en último término, todo se valora en función de una cuenta de resultados. En toda compañía, las personas tienden a ser apreciadas en función del dinero que generan o posibilitan generar, de algo que, en un momento dado, alguien alcanza, de manera más o menos concreta, a poner en forma de cifras. Las compañías no existen para promover el avance de la ciencia, eso es claro. Pero en ocasiones, investigan y hacen avanzar la ciencia, fundamentalmente si estiman que con ello pueden ser capaces de generar una ventaja competitiva sostenible. Hace años, esto se basaba, por lo general, en el intento de apropiación del conocimiento científico mediante mecanismos como las patentes, que otorgaban un cierto tiempo de explotación al descubridor para la explotación de un descubrimiento. Ahora, ni está claro que las patentes sirvan realmente para eso, ni podemos despreciar la gran cantidad de casos en los que la ventaja competitiva sostenible se construye precisamente compartiendo, y no intentando construir vallas alrededor del conocimiento.

En la academia, el supuesto indicador de éxito eran las publicaciones… y seguramente no serían un indicador malo, si no fuera porque se han prostituido completamente y ha perdido todo valor. Hoy, las publicaciones son una métrica inútil que tiende a reflejar únicamente cómo de espabilado es un profesor a la hora de reciclar su trabajo hasta el infinito, explotar a compañeros y trepar en comunidades no precisamente meritocráticas de revisores, editores y organizadores de congresos para colocar sus papers en determinados journals que, supuestamente, proporcionan el necesario prestigio para alcanzar esa meta llamada tenure, seguramente uno de los conceptos que más daño han hecho al conocimiento en su conjunto.

La explotación del conocimiento académico ha dado lugar a una industria de editores con intereses que nada tienen que ver con la difusión de la ciencia, y sí con el interés por generar importantes beneficios gracias al trabajo de quienes intentan sobrevivir en un sistema perverso. Universidades de varios países del mundo o incluso premios Nobel han declarado su rechazo y llamado al boicot de las editoriales de journals que, a través de suscripciones con precios estratosféricos, parecen pretender que la ciencia solo sea accesible para unos pocos: un sistema profundamente perjudicial que clasifica a los journals en supuestos rankings en función de su teórico impacto pero que sirven de más bien poco, más que para generar todo un submundo de resultados falsos, supuestas revisiones en realidad inventadas o nunca llevadas a cabo, y sistemas creados específicamente para poder acceder a papers en condiciones mínimamente razonables. Eso es lo que el mundo académico ha sido capaz de generar: un sistema completamente insostenible, un auténtico dilema moral plagado de falsedad e irrelevancia que debería llevarnos a replantear la universidad desde sus mismas bases. Cualquiera que, a día de hoy, defienda este absurdo sistema, está profundamente equivocado: el mundo académico se ha convertido en un generador de más y más papers, cuanto más ilegibles e incomprensibles mejor, que circulan a través de un sistema diseñado para hacerlos prácticamente inaccesibles.

¿Cómo combinar la irrelevancia de una academia que se devora a sí misma, con una industria que precisa de investigación? La lógica es completamente aplastante: combinándolas. Ofreciendo a las compañías la posibilidad de financiar y colaborar con instituciones que tengan un enfoque claro hacia la generación de investigación útil, no únicamente aplicada, pero sí con un componente importante de aplicabilidad. Esto obviamente, no es una cuestión que pueda pintarse únicamente en blanco y negro: no se trata, por supuesto, de marginar completamente la investigación pura, pero sí de tratar de balancearla con la necesidad de producir resultados que atraigan a potenciales interesados en financiarla. La investigación, como forma de producir resultados explotables y genuinamente útiles para las compañías que la financian, mientras permite que los académicos puedan desarrollar una carrera dedicada a generarla. Un encaje que, por culpa de métricas erróneas y sistemas de valoración absurdos, lleva décadas probándose elusivo, difícil de sostener y, en muchísimos casos, generador de gran cantidad de frustraciones.

¿Cómo investigar hoy en una disciplina como por ejemplo el machine learning, que tiene necesariamente que combinar una capacidad de abstracción metodológica profunda con la generación de datos a nivel de explotación industrial masiva, con el rigor necesario para no violar ninguna de las asunciones de la estadística y con las necesidades de aplicabilidad y practicidad que las compañías demandan? Si no es combinando ambos mundos, nos encontraremos una vez más construyendo escenarios subóptimos, absurdos, en los que el desarrollo de la disciplina sufre por falta de recursos que, en la inmensa mayoría de los casos, estaban a pocos clics de distancia, en una institución diferente con la que no se puede colaborar porque, desgraciadamente, no existen protocolos adecuados para ello.

Cuadrar ese círculo es, en este momento, el mayor desafío de decanos de unas instituciones que, con escasas excepciones, llevan años anquilosándose y evolucionando en estructuras cada vez menos atractivas, más fosilizadas, con cada vez mayor distancia entre todos sus constituyentes. Y también lo es para los directivos de unas compañías que ven cómo la generación de conocimiento específico necesario para mantener una ventaja competitiva se ve, en muchos casos, perjudicada por unos objetivos cortoplacistas que resultan muy difíciles de combinar con las necesidades de rigor y metodología del trabajo de investigación. No, no se trata de mendigar dinero de las empresas, ni de dar dinero a la universidad como si fuera parte de algún programa de RSC… se trata de, de verdad, poner en valor esa conexión. De proveer no solo de recursos sometidos al adecuado nivel de control, sino también de otros elementos: datos que analizar, personas que puedan aportar elementos interesantes, colaboraciones… se trata de construir un sistema que proporcione valor a ambas partes.

En ese entendimiento, en una colaboración mucho más próxima entre la universidad y la empresa a todos los niveles, está la clave de muchas cosas importantes. Personajes que desde si torre de marfil se dediquen a criticar y a tirar piedras al otro lado, francamente, me sobran.

 

IMAGE: Rawpixel - 123RFUn estudio llevado a cabo en el MIT y publicado ayer en Science viene a demostrar de manera fehaciente una gran verdad que resultaba más que evidente y cuyas consecuencias llevamos mucho tiempo sufriendo: las noticias falsas se difunden hasta unas veinte veces más rápido en Twitter que las verdaderas, y los culpables de ello no son los bots, sino las personas.

El estudio analiza noticias compartidas a lo largo prácticamente toda la vida de Twitter desde sus inicios gracias a datos facilitados por la propia compañía, unas 126,000 piezas de información compartidas por unos tres millones de usuarios a lo largo de más de diez años, y concluye que de manera consistente, lo falso domina sobre lo verdadero en la red social: las noticias falsas y los rumores alcanzan a más personas, penetran de manera más profunda y se difunden mucho más rápido que las reales. 

El estudio se centra en Twitter, pero no resulta demasiado aventurado suponer que el resultado pueda extenderse a la mayoría de las redes sociales que utilizamos de manera habitual: la conclusión, de hecho, no señala un problema derivado de las redes sociales, sino un problema propio de las personas. A lo largo de un tiempo no excesivamente largo en términos de desarrollo de mecanismos y protocolos sociales, hemos creado un sistema que disminuye hasta el límite las barreras de entrada a la difusión de información, lo hemos dotado de mecanismos que incentivan la compartición y la popularidad por encima de todo, y hemos renunciado a educar a las personas en su uso. ¿Qué podría salir mal?

La educación es, en efecto, el elemento fundamental en esta cuestión: algunos posiblemente podrían pensar que es normal que un profesor apunte a su actividad como solución a todos los problemas, siguiendo el clásico de “como tengo un martillo, para mí todos los problemas son un clavo”, pero realmente creo que este problema lleva apuntándose desde hace mucho tiempo. La educación, en general, ha evolucionado poquísimo desde hace décadas. Básicamente, seguimos educándonos, a casi todos los niveles, con los mismos mecanismos que se educaron nuestros padres y nuestros abuelos: libros de texto que tenemos que estudiar, memorizar y posteriormente, repetir en un examen, en diversos formatos.

Seguimos partiendo de la base de que la información está en un repositorio de algún tipo, generalmente un libro o unos apuntes de un profesor, y asumiendo que esa es la información correcta, la que tenemos que aprendernos, la que vale. Esa dependencia del libro de texto y de la información que va “desde la página tal a la página cual”, esos mecanismos de “esto es lo que entra en el examen” nos ha llevado a perversiones importantes, como la utilización de esos libros de texto como herramientas de adoctrinamiento puestas al servicio de los más variados fines. Pero, sobre todo, nos convierten en dependientes de una fuente de información determinada, y evitan que desarrollemos mecanismos adecuados de búsqueda y cualificación de información. Esos mecanismos de verificación de fuentes, tradicionalmente, solo se enseñan – y no necesariamente de la mejor manera – en las facultades de Ciencias de la Información y Periodismo, no en el ámbito de otros tipos de enseñanza ni de manera general. Sin embargo, cada día más, resultan una habilidad fundamental en una sociedad caracterizada por la hiperabundancia y la saturación de información.

Así, vivimos ahora en una sociedad en la que muchísimas personas aceptan como verdad absoluta cualquier cosa que vean escrita en una pantalla, que toman como norma de fe el primer resultado de un buscador, o que creen a pies juntillas lo que ven compartido en una red social o en un trending topic. Y no solo que lo creen, sino que, además, lo difunden, intentando obtener así más Likes, más popularidad, ocupar un nivel de centralidad mayor o una mejor consideración en su círculo. Si vemos algo en una red que nos llama la atención o que coincide con nuestra visión del mundo, lo compartimos sin ningún tipo de mecanismo de verificación previo. Si lo vemos compartido por muchas personas, pasa a tener la característica de verdad absoluta. Esa vulnerabilidad, ese fallo del sistema, ha sido explotado de manera evidente y exitosa por quienes han aprendido a simular un amplio seguimiento, a generar una gran polarización, pero en realidad, los verdaderos culpables no son esos bots y esas cuentas falsas destinadas gestionadas desde otro sitio, sino nuestra propia ingenuidad y estupidez como sociedad, la ausencia de comportamientos que, reforzados mediante la educación, nos lleven a desarrollar mecanismos de verificación.

El recurso a las páginas de un libro de texto como vehículo transmisor de la verdad es un error terrible que tenemos que subsanar lo antes posible. La educación, desde los niveles más elementales, debería apoyarse no en libros de texto, sino en el desarrollo de la capacidad de búsqueda y cualificación de información en la red. Los alumnos tendrían que entender que la verdad no está entre las páginas de un libro ni de ninguna otra fuente designada: en realidad, la verdad está ahí fuera, y solo mediante los adecuados mecanismos activos y conscientes de contraste y verificación aprendemos a capturarla. Esto lo he escrito en numerosas ocasiones, he llamado a matar al libro de texto o a no proceder a su simple digitalización para ponerlo en un soporte más atractivo.

Aprender hoy consiste en entender que el conocimiento no está encerrado en ningún libro. Aprender es aprender a buscar. Supone manejarse entre cantidades ilimitadas y crecientes de información, y ser capaz de identificarla, cualificarla, verificarla, descartarla cuando es mala, compartirla cuando es buena… supone aprender a consultar múltiples fuentes, y guiarse por sistemas en los que el profesor se convierte en un criterio más, en un nodo más de conocimiento, en alguien que, aunque quisiese transmitir algo erróneo, no podría hacerlo sin quedar cuestionado. El conocimiento no debe provenir de un libro que todos, desde instituciones de todo tipo hasta un gobierno, tienen interés por manipular o por convertir en negocio. Pero tampoco puede ser dejado al solo criterio de un profesor que puede tener sus propios sesgos, su propia agenda o incluso sus propios monstruos. Ni al de los padres. La enseñanza debe asegurar que los niños entienden que un libro, un profesor, un periódico, un gobierno o unos padres no pueden nunca constituirse en fuente única del conocimiento, porque el conocimiento está ahí fuera, evoluciona, y hay que ir a buscarlo en cada momento. La enseñanza, cada día más, tiene que dejar de consistir en dar peces, y convertirse en enseñar a pescar. 

El actual problema que indudablemente tenemos de sociedad ingenua, estúpida, fácilmente manipulable, que comparten cualquier basura que leen en la red sin pararse a verificarla, no se soluciona con tecnología. Se soluciona cambiando, y de manera urgente, la educación. La tecnología podrá ayudar y contribuir a algunas cosas, podrá enfocarse en la detección de determinados patrones de difusión que permitan una supervisión humana, en la verificación de fuentes, o podrá servir para ayudar en esa tarea importante denominada fact-checking, pero no debería ser utilizada para tratar de crear “algoritmos de la verdad”, so pena de volver a incidir en los mismos errores. La verdadera solución, insisto, está en la educación. En cambiar la educación para adaptarla al tiempo y al entorno tecnológico que nos ha tocado vivir. Y en hacerlo, además, lo antes posible.

 

IMAGE: Lightwise - 123RFLas percepciones sobre la innovación son, en ocasiones, tan importantes como la innovación en sí. Coincidiendo con la noticia de la salida de los Estados Unidos de los primeros diez puestos del ranking de innovación de Bloomberg por primera vez en su historia, consecuencia lógica de elegir a un imbécil cortoplacista e iletrado como presidente, el mismo personaje, dentro de su absurda “vuelta al carbón”, impone un arancel del 30% a los paneles solares importados, provocando un daño y un retraso irreparable al desarrollo de la generación distribuida de energías renovables en su país.

Pero no todo el perjuicio a la innovación en los Estados Unidos provienen del mismo idiota: también existe un problema de actitudes, de sobreprotección. En tecnologías tan prometedoras y con tanto impacto potencial en el futuro como la edición genética, China, carente de barreras regulatorias para su aplicación, se ha convertido en el primer país en desarrollar pruebas con humanos: lleva utilizando la tecnología para tratar a pacientes con cáncer ya desde el año 2015, con todo lo que ello conlleva de desarrollo de experiencia y expertise. No, China no ha desarrollado CRISPR, ese mérito corresponde, fundamentalmente, a investigadores norteamericanos en instituciones norteamericanas. Sin embargo, si es el país al que corresponde el mérito de haber logrado pasar más rápido de CRISPR como concepto y como investigación pura, a contextos reales y específicos de investigación aplicada. Si un emprendedor, a día de hoy, quisiese desarrollar aplicaciones innovadoras para esa tecnología, seguramente establecería su compañía en China, no en los Estados Unidos o en Europa.

Si utilizamos el mismo ranking de Bloomberg, China ocupa la posición 19, aún alejada de los puestos de cabeza. Sin embargo, lleva varios años moviéndose en el sentido inverso a los Estados Unidos: este último año ha escalado dos puestos, sobre todo gracias al fuerte incremento de graduados universitarios en carreras de ciencias e ingeniería, y al desarrollo de una importante industria creada en gran medida por personas que emigraron a otros países, se formaron y trabajaron en ellos, y volvieron posteriormente a China, dentro de un plan perfectamente diseñado y financiado tanto por su gobierno como por empresas. Cada vez más, en ámbitos como las tecnologías sociales y móviles, la innovación ocurre en China. Cuando una compañía quiere exponer a sus directivos a un entorno diverso e innovador, los envía allí.

Durante muchos años, lo que una persona con suficientes recursos económicos se planteaba en el caso de una enfermedad complicada como un cáncer era someterse a tratamiento en una clínica norteamericana. La sanidad en los Estados Unidos es tremendamente cara y elitista, pero también estaba considerada como la más avanzada. Ahora, si una persona se ve afectada por un cáncer complicado, es más que posible que tenga más posibilidades de recibir un tratamiento exitoso si se plantea acudir a una clínica china. A nivel individual, este tipo de decisiones son obviamente importantes, en ocasiones una cuestión de vida o muerte. Pero a nivel de percepción colectiva, generan además corrientes de pensamiento que pueden llegar a tener una importancia muy superior. Cuando una parte cada vez más significativa de la investigación en cuestiones punteras se desarrolla en un país mientras en otros se ve retrasada constantemente por problemas regulatorios, el talento, que no se mueve precisamente por percepciones ligeras sino por un análisis generalmente serio y detallado, empieza a ver claro a dónde acudir para formarse o para trabajar.

El primer año de la administración Trump ha sido un desastre para la innovación. El presidente no solo no tiene ni idea de tecnología e innovación, sino que carece además de ningún tipo de interés: simplemente, no se ha acercado a esos conceptos para nada, ni siquiera para mencionarlos. Ha provocado un brain drain no solo en su administración, sino a todos los niveles, perjudicando la llegada de talento a través de la inmigración o dificultando la llegada de estudiantes brillantes: un descenso del 7% en un año frente al incremento de más de un 25% de la vecina Canadá. Las grandes compañías tecnológicas se apresuran a abrir centros de investigación en otros países con actitudes más abiertas para intentar mantener así su capacidad de atraer talento investigador.

Los Estados Unidos ya no son un país al que ir a educarse, al que ir a buscar trabajo, o ni siquiera al que ir a curarse cuando se está enfermo: son un país en recesión en su imagen y percepción internacional, independientemente de si crecen o decrecen en términos económicos. Las consecuencias de elegir al candidato equivocado.

 

Project BaselineMi columna en El Español de esta semana se titula “Descifrando la vida” y habla sobre Verily, una spin-off de Alphabet anteriormente conocida como Google Life Sciences, dedicada a la investigación en las ciencias de la salud, que se ha propuesto hacer posiblemente una de las investigaciones más ambiciosas de la historia en el ámbito de la medicina: un estudio longitudinal que abarcará a más de diez mil candidatos a lo largo de más de diez años.

La idea de Project Baseline es utilizar la tecnología disponible actualmente para plantear un seguimiento detallado a diez mil personas que vivan cerca de alguna de las tres clínicas incluidas en el experimento (Stanford, DukeCalifornia Health & Longevity Institute). A lo largo del estudio, los voluntarios, que no obtendrán compensación económica alguna y simplemente se beneficiarán de un nivel de monitorización más elevado que el habitual, serán objeto de un riguroso seguimiento y escrutinio que incluirá analíticas y pruebas diagnósticas periódicas de diversos tipo, el uso de dispositivos para registrar su actividad física o de sensores bajo su cama para evaluar la calidad del sueño, secuenciación completa de su genoma, etc. La totalidad de sus datos médicos serán compartidos con la compañía, que podrá además explotarlos mediante alianzas con compañías farmacéuticas o equipos de investigación médica respetando una serie de medidas de protección de la privacidad. 

A lo largo del estudio, un cierto porcentaje de los voluntarios estudiados padecerá dolencias de diversos tipos, que serán estudiadas con detalle para tratar de establecer relaciones causales entre los datos que han ido generando y el origen, evolución o transmisión de su enfermedad. Cualquier persona que conozca con cierto detalle los procesos implicados en investigación biomédica se dará rápidamente cuenta de que con proyectos de este tipo, del mismo modo que con ese Apple ResearchKit del que hablamos hace ahora unos dos años, estamos en realidad reinventando de una manera radical toda la investigación en ciencias de la salud, accediendo a tamaños muestrales antes completamente inimaginables, y a una riqueza, volumen de datos y nivel de detalle a los que anteriormente jamás habíamos podido pensar en acceder. En realidad, lo que estamos planteando es la auténtica transformación digital de la investigación biomédica, con todo lo que ello conlleva: cambios radicales en los canales y la relación con los pacientes, redefinición total de los procesos internos para orientarlos completamente a la generación y análisis de datos, y modelos de plataforma para posibilitar la entrada de distintos socios capaces de enriquecer o beneficiarse mútuamente del proyecto.

¿Qué avances en el campo biomédico van a poder surgir del planteamiento de estudios como este? ¿De qué tipo de adelantos hablamos cuando pensamos en escalar algo como la investigación biomédica a estos niveles, y apalancarla con todas las posibilidades que permite el entorno tecnológico en que vivimos hoy?

 

Open AccessLa discusión sobre la difusión de la ciencia y sobre los problemas del modelo que representan los journals académicos se remonta ya a hace mucho tiempo, incluso antes de que la disrupción que supuso la popularización de la red fuese una realidad.

El movimiento Open Access cuyo logo figura en esta entrada tiene su origen en tres manifiestos, la Budapest Open Access Initiative de febrero de 2002, el Bethesda Statement on Open Access Publishing en junio de 2003,  y la Berlin Declaration on Open Access to Knowledge in the Sciences and Humanities de octubre de 2003, pero en realidad, somos bastantes los académicos que incluso antes de esas declaraciones ya publicábamos por una simple cuestión de principios todos nuestros artículos en abierto, contraviniendo abiertamente las normas de los journals que nos los habían publicado. 

He escrito sobre el tema en varias ocasiones y en diversos sitios, en 2005, 2006, 2007 y 2008, además de en 2013 cuando la muerte del auténtico mártir de la causa, Aaron Swartz, desencadenó una tormenta que culminó en la campaña #PDFTribute, que llevó a que muchos académicos subiéramos nuestros artículos publicados con copyright en diversas revistas científicas a la red con ese hashtag.

El modelo de los journals académicos es, indudablemente, muy interesante: las compañías que los publican generan grandes ingresos cobrando grandes cantidades por las suscripciones a universidades y bibliotecas, pero en el lado de los costes, son capaces de operar de una manera completamente ventajosa: ni los académicos que envían sus manuscritos a las editoriales, ni los académicos que forman parte del comité editorial o que leen y critican los trabajos recibidos (reviewers) cobran en ningún momento. En algunos casos, de hecho, se llega a pagar por acceder al sistema de revisiones. Muchos académicos consideran la lectura puntual de los journals de su área una parte imprescindible de su trabajo, pero la realidad es que el sistema solo es eficiente para quien los publica, que es capaz de apalancarse en el trabajo de académicos que trabajan gratis para obtener unas ganancias indudablemente jugosas.

El sistema está completamente arraigado en los mecanismos del mundo académico: para obtener su tenure o plaza, los profesores deben publicar en journals de los considerados “de alto impacto”, lo que genera una carestía de recursos que lleva a las editoriales de esos journals a obtener más prestigio y a atraer tanto a más candidatos a la publicación, como a más reviewers. El mecanismo es claramente ineficiente porque, además de generar una economía de la escasez en la que en muchas ocasiones resulta difícil tener acceso a las publicaciones, da lugar a retrasos importantes en el proceso editorial. Y en realidad, la crisis en el modelo de publicación académica tan solo es uno de los elementos del mundo académico que están en entredicho: muchos cuestionamos abiertamente el modelo de tenure, la idea de que de una plaza deba pertenecer “en propiedad” a una persona independientemente de su rendimiento. Llevo más de veintiséis años trabajando para la misma institución, soy doctor y mi rango es el de full professor, pero jamás he considerado que mi puesto de trabajo esté protegido por nada más que la legislación laboral española. Si mañana empezase a dar clase mal o mi rendimiento fuese deficiente, me parecería muy normal que me pusiesen de patitas en la calle.

La llegada de journals puramente online, como PLoS ONE (acrónimo de Public Library of Science), lleva tiempo amenazando el modelo de publicación académica, aunque únicamente ha tenido impacto en algunas disciplinas. Incluso plataformas sociales propias del mundo académico como Academia.edu o ResearchGate invitan abiertamente a sus miembros a compartir sus papers en la plataforma con sus colegas. Otras iniciativas apuntan más bien a la “liberación por la fuerza”: Sci-Hub, creado por la estudiante kazaja Alexandra Elbakyan, es un repositorio lanzado en abril de 2011 que contiene ya más de cincuenta y ocho millones de papers accesibles en abierto, y que por el momento, ha hecho sistemáticamente caso omiso a las demandas.

Frente a ese tipo de iniciativas se encuentran las grandes editoriales, sobre todo personificadas en Elsevier, que posee una cartera de más de 2,500 journals y un modelo de suscripción completamente cerrado. Ahora, Elsevier se enfrenta a un movimiento de boicot por parte de nada menos que sesenta instituciones académicas alemanas, que han decidido eliminar sus suscripciones a los journals de la editorial con el fin de forzar que renegocie unas condiciones de mejor acceso, una estrategia que fue utilizada el pasado año por universidades holandesas con un cierto nivel de éxito.

¿Qué valor añadido genera hoy una editorial? Dejando aparte el proceso de publicación en papel, que en el mundo académico no aporta grandes ventajas frente a la lectura en soporte electrónico (más conveniente a la hora de señalar, apuntar o copiar fragmentos de texto), la posibilidad de reunir a un grupo selecto de reviewers, de convertirse en un lugar de referencia para los profesores es un proceso sometido casi únicamente a una dinámica social: basta con que en una disciplina determinada se reúnan un pequeño grupo de profesores con cierto nivel y se comprometan a contribuir su trabajo de revisión a una página abierta en lugar de hacerlo – igualmente gratis – para un editor tradicional, para que el movimiento prenda. Que ese tipo de modelos se generalicen y comiencen a hacer uso de otros esquemas de publicación, basados en repositorios libres y en procesos de revisión abiertos que aprovechan el poder de la web, es seguramente una cuestión de tiempo.