Sobrepasar la línea - El Diario Vasco (pdf)Javier Guillenea, de El Diario Vasco, me envió algunas preguntas por correo electrónico para documentar un artículo sobre los abusos del telemarketing, al hilo de la ratificación por parte de la Audiencia Nacional de las sanciones impuestas por la Agencia Española de Protección de Datos (AEPD) a dos empresas de subcontratas de marketing telefónico que llevaban a cabo campañas para la operadora Jazztel.

El artículo resultante, publicado ayer, se titula “Sobrepasar la línea” (pdf), y trata de incidir en un tema que llevo comentando muchos años: las contradicciones inherentes a la actividad de unos call-centers que, salvo en su vertiente inbound, debería estar completamente prohibida. Una interpretación torticera del marketing como “licencia para molestar” que se las arregla para arruinar una tras otra la propuesta de valor de todos los canales de comunicación que vamos intentando utilizar como vía para la comunicación humana, y que, por mucho que en ocasiones, llevado por una creciente presión social, hable de una supuesta autorregulación, termina, en cuanto la presión de los resultados aprieta, actuando al margen de todo principio ético. Un ejemplo más de cómo una actividad odiada por todos los usuarios prácticamente sin excepción persiste debido a los intereses económicos de unos pocos, y se resiste al que tendría que ser su único destino: la prohibición radical y completa.

Expliquémoslo en términos claros y en mayúsculas: TODA LLAMADA COMERCIAL NO SOLICITADA ES UNA MOLESTIA PARA EL QUE LA RECIBE. Es no solo una interrupción, sino un intento de reducir el tiempo de procesamiento mental del potencial cliente sobre una oferta determinada, con la intención evidente de intentar venderle algo a cualquier precio. NO HAY NINGÚN CLIENTE QUE APRECIE LAS BONDADES DEL TELEMARKETING, NI QUE LO DEFIENDA, NI AL QUE ALGUNA MANERA LE PAREZCA ACEPTABLE. A ello se une que las bases de datos habitualmente utilizadas para ponerlo en práctica no han sido obtenidas en prácticamente ningún caso solicitando el consentimiento expreso, porque es completamente evidente que ningún cliente en su sano juicio otorgaría el consentimiento para que le molestasen de esa manera. Por tanto, ¿QUÉ DIABLOS HACES UTILIZANDO MI NÚMERO DE TELÉFONO PARA MOLESTARME, CUANDO YO NO HE DADO MI CONSENTIMIENTO EXPRESO PARA ELLO? Esa actividad comercial debería ser sencillamente ILEGAL, estar PROHIBIDA. Y sin embargo, aquí estamos, recibiendo llamadas comerciales día sí y día también.

A continuación, las respuestas completas a las preguntas que intercambié con Javier:

P. ¿El telemarketing está empezando a saturar a los usuarios? ¿Corren las empresas peligro de empezar a caer mal a la gente?

R. El telemarketing no ha empezado a saturar a los usuarios: en realidad, lleva muchísimos años haciéndolo. Tantos, que hemos perdido la cuenta. La gran verdad es que el telemarketing se divide en dos tipos, inbound, en el que los usuarios llaman a la compañía para preguntar dudas, recibir asistencia, etc., y outbound, en el que es la compañía la que llama a los usuarios para intentar venderles productos, y esa segunda categoría simplemente debería estar prohibida. Permitir que las compañías molesten a los usuarios – no nos engañemos, toda llamada telefónica no solicitada es siempre una molestia – es algo tan absurdo e injustificado, que debería ser considerado completamente inaceptable. Es una práctica comercial que, como otras que son ecológica o éticamente abominables como el buzoneo, el reparto de folletos a mano o el maldito “parabrising”, debería llevar prohibida muchos años.

P. Has escrito que el telemarketing ha traído consigo una evolución social en el tratamiento de un medio de comunicación como el teléfono. ¿En qué consiste esta evolución?

R. La evolución consiste en que los marketers van tomando cada nuevo canal que aparece, sea el correo postal, el teléfono, el correo electrónico o cualquier otra, y lo explotan de manera inmisericorde hasta destrozar su propuesta de valor, hasta que los usuarios reclaman desesperados una regulación que los proteja. Después pretenden autorregularse, algo que jamás funciona porque habitualmente responde a los muchas veces inexistentes parámetros éticos de las compañías, y con esa pantomima pasan años en los que el usuario se ve abocado a utilizar medios de comunicación cuyas posibilidades están secuestradas por esa panda de auténticos sinvergüenzas al servicio de unos objetivos. Ya hemos llegado, si nos fijamos en el anuncio de Google de anoche, hasta el punto de diseñar asistentes personales robóticos que nos filtren las llamadas de telemarketers, y aún tendremos que ver cómo algunos telemarketers se las afanan patéticamente para saltarse ese filtro engañando al robot… ¿a dónde vamos? ¿A qué límites del absurdo es preciso llegar? La única solución es la regulación más taxativa y clara: la prohibición total.

P. ¿La lista Robinson funciona realmente o las empresas están empezando a encontrar la manera de sortearla?

R. La lista Robinson es uno de esos ejemplos de autorregulación que, por supuesto, no funciona. Algunos telemarketers, llevados por la premura en la consecución de unos objetivos determinados muchas veces de manera irracional, no solo incumplen la lista Robinson, sino que a veces, incluso abusan de ella y hasta la usan como una lista más que bombardear. Las bases de datos en manos del director de marketing son muchas veces herramientas de carpet bombing, “dale caña hasta que lleguemos al objetivo”. Con GPRD terminará pasando lo mismo si no vemos pronto una primera oleada de sanciones ejemplarizantes, porque muchos marketers empiezan a pensar que simplemente, la regulación “no tiene dientes”. En algún momento hace muchos años alguien decidió que ser director de marketing debía ser incompatible con tener escrúpulos o ética, y la profesión murió, se pervirtió definitivamente. Hay toda una generación de directivos en marketing que por el bien de la sociedad deberían ser figurativamente ajusticiados en alguna plaza pública.

 

Scooters licensed to operate in SFEl ayuntamiento de San Francisco hace pública la adjudicación de las dos licencias que ofrece para la operación de plataformas de patinetes eléctricos, y lo hace decidiendo en favor de dos de los competidores más pequeños e inesperados, Scoot y Skip, en lugar de optar por los pioneros y creadores del movimiento, Bird y Lime, o por las dos compañías más destacadas en movilidad en la ciudad, Uber y Lyft, que también proponían alternativas en ese ámbito.

La decisión se presenta precisamente como una bofetada a las compañías que, llevando al límite la política de “mejor pedir perdón que pedir permiso“, provocaron un problema al ayuntamiento, que tuvo que capear las protestas de los ciudadanos, pensar a toda prisa en alternativas para la regulación del tema, y tomar medidas provisionales como la retirada de más de quinientos patinetes mal estacionados en calles y aceras. Que plantear una especie de venganza o hacer pagar a esas compañías por sus decisiones pasadas sea una decisión racional o termine evitando, en realidad, que la licencia sea operada por los competidores que pudiesen estar realmente más preparados o tuviesen más experiencia es una cuestión cuyas consecuencias solo podremos valorar en retrospectiva.

Otra ciudad californiana, Santa Mónica, ha anunciado también su decisión al respecto y ha optado por conceder cuatro licencias a Bird, Lime, Lyft y Jump (propiedad de Uber), que podrán operar un total de 750 vehículos eléctricos cada una, repartidos entre bicicletas y patinetes. En San Francisco, la licencia permite a Scoot y Skip poner en la calle 625 patinetes durante los primeros seis meses en pruebas, y llegar a los 2,500 cada una a partir de ahí.

Scoot es una de las compañías más pequeñas en este ámbito: opera en San Francisco, donde lleva desde 2012 gestionando una flota de motocicletas eléctricas, y desde hace poco en Barcelona. Skip, por su parte, es también relativamente pequeña con respecto a sus competidores, tiene tan solo unos mil patinetes en operación en Portland y Washington DC, ha obtenido únicamente 31 millones de dólares en financiación, frente al estatus de unicornios de algunos de sus competidores, y se planteaba como la más inclinada a seguir las reglas y operar de manera respetuosa con los ayuntamientos. La decisión supone un revés para los planes de compañías como Uber y Lyft en el icónico y mediático mercado de San Francisco, aunque todo indica que sus planteamientos con respecto al papel de los patinetes en los desplazamientos urbanos se han convertido en una parte integral de su estrategia: Uber, de hecho, ha anunciado estar trabajando en el diseño y construcción de su propio vehículo.

Pasada la primera etapa de introducción no regulada y por la vía de los hechos, y las primeras oleadas de protestas de algunos ciudadanos, todo indica que estamos ya no solo en la fase de expansión internacional, sino además en la de consolidación, en la que los ayuntamientos se dan cuenta de que este tipo de vehículos tienen, en realidad, un potencial papel importante en el transporte urbano. Licencias, planteamientos sobre los lugares en los que pueden o deben circular de manera segura, y esquemas de compartición de datos con aplicaciones como Citymapper o con los propios ayuntamientos para que entiendan las circunstancias y flujos de la movilidad en sus ciudades. Ahora, estamos en la fase en la que veremos cómo cada ciudad decide conceder licencias y licitarlas en función de diferentes criterios, una fase que terminará cuando algunos de los competidores en determinados mercados se demuestren mejores que otros o consoliden su expansión mediante fusiones y adquisiciones. Lo que no cabe duda ya es que los patinetes eléctricos en modalidad de uso compartido van a formar parte del ecosistema de nuestras ciudades en el futuro más pronto o más tarde junto con otros vehículos como bicicletas o motocicletas, que se plantean como un paso más en la muy deseable reducción del número de automóviles particulares en circulación, y que el hecho de que los ayuntamientos lo entiendan lo antes posible va a resultar fundamental.

 

IMAGE: Nick Youngson CC BY-SA 3.0 ImageCreatorGoogle ha publicado su declaración de principios con respecto a la inteligencia artificial, un texto cuidado, de propósito necesariamente amplio y que pretende cubrir todos los supuestos acerca de los posibles usos de su tecnología. La declaración constituye un documento breve y de lectura muy recomendable que, sobre todo, plantea muchas reflexiones sobre el mundo al que nos dirigimos y las reglas que, necesariamente, debemos plantearnos de cara a su evolución.

La compañía llevaba tiempo trabajando en una reflexión de este tipo, del mismo modo que se está trabajando mucho en este sentido en otros ámbitos: aquellos que afirman que la publicación del documento es una reacción a la reciente dimisión de una docena de trabajadores y la petición firmada por varios miles más en protesta por la participación de la compañía en el Proyecto Maven del Departamento de Defensa, destinado a reconocer imágenes tomadas por drones en el campo de batalla, o bien no conocen a la compañía, o confunden claramente los factores coyunturales con fundacionales, la forma con el fondo. La regulación de la inteligencia artificial no es un tema en absoluto nuevo, se está discutiendo en numerosos foros, en algunos de los cuales participo personalmente, y Google, como uno de los actores más relevantes y avanzados en este tema, no ha hecho más que poner en negro sobre blanco una declaración de principios que proviene de un proceso de reflexión largo y continuado en el tiempo.

Probablemente influenciados por la coincidencia en el tiempo de esas dos circunstancias, la mayor parte de los titulares que leerás en las noticias se refieren a la importancia de la declaración de Google describiéndola de manera simplista como “Google promete que su AI no será utilizada para el desarrollo de armas o violaciones de los derechos humanos“, cuando la realidad es que basta una lectura superficial del documento para entender que sus intenciones van mucho más allá. La mención a las armas, de hecho, ocupa un muy breve espacio en una sección de propósito aclaratorio titulada “AI applications we will not pursue”, y se limita a decir que la compañía no trabajará en “armas u otras tecnologías cuyo principal propósito o implementación es causar o facilitar directamente lesiones a las personas”, pero que “seguirán trabajando con gobiernos o con los militares en otras áreas que podrán incluir ciberseguridad, entrenamiento, reclutamiento militar, cuidado de salud para veteranos o búsqueda y rescate”.

¿Qué es lo importante, por tanto, en la declaración de principios de Google? En primer lugar, la importancia de llevar a cabo esta reflexión en todos los ámbitos, y de hacerlo de una manera no tremendista, bien informada, y con un adecuado nivel de realismo, sin imaginarse robots asesinos en escenarios apocalípticos que nos atacan en cada esquina, o supuestas inteligencias superiores que deciden librarse de los humanos porque les resultan molestos. No, cuando hablamos de inteligencia artificial no hablamos de inteligencia de propósito general, y no lo haremos durante mucho tiempo, porque inteligencia artificial, a día de hoy, no es eso. De manera realista, hablamos en realidad de aplicaciones que tienen más que ver con qué productos son ofrecidos a qué clientes potenciales, con políticas de pricing, con la prevención del abandono o churn, la detección de posibles patrones de actividad fraudulenta, las opciones en la determinación del marketing mix, y sin duda, cada vez más cosas. Menos morboso que los robots asesinos, sin duda, pero enormemente importante y con un potencial muy importante para hacer las cosas mal.

De ahí que uno de los puntos más relevantes declaración de principios, que incluye cuestiones como “ser socialmente beneficioso”, “evitar la creación o el refuerzo de sesgos”, “ser responsable ante las personas”, “incorporar principios de privacidad” o “ser puesto a disposición para usos acordes con estos principios” (lo que implica impedir su uso a quienes no los respeten), me han parecido puntos como el “mantener altos estándares de excelencia científica” o, sobre todo, “ser construido y probado con seguridad”: muchos de los problemas que la tecnología está planteando a medida que avanza provienen no del hecho de que se diseñe con objetivos potencialmente perjudiciales, sino al hecho de que se gestione de manera incorrecta, con una seguridad inadecuada, con errores graves en los procedimientos o sin tener en cuenta que en el mundo existen, obviamente, personas malintencionadas o con intereses oscuros. No, el “Oooops!”, la candidez o la ingenuidad sin límites no pueden seguir sirviendo como disculpas cuando hablamos de desarrollo de tecnologías con un potencial importante para usos perjudiciales o malintencionados, y Google reafirma su compromiso de cara a este tipo de problemas, un compromiso que que va mucho más allá del “no seremos malvados”. Esto, por supuesto, no exime a la compañía de la posibilidad de cometer errores, que pueden suceder en cualquier proceso, pero si reafirma una importante voluntad de no cometerlos, de someterse a procesos rigurosos y de tratar de evitarlos a toda costa. 

La reflexión sobre los principios éticos asociados al desarrollo de algoritmos de inteligencia artificial es importante, y va a producirse a todos los niveles. Tan importante como llevarla a cabo es conseguir que se produzca en el ámbito adecuado, alejada de ignorantes que desconocen completamente lo que es la inteligencia artificial y que, con mentalidad tremendista, creen que hablamos de HAL, de Skynet o de robots Terminator que vienen del futuro para asesinar a Sarah Connor. Permitir que personas no preparadas o que no entienden el desarrollo de machine learning e AI se impliquen en la redacción de los principios éticos que gobernarán su futuro es un absurdo conceptual que, sin duda, nos llevaría a visiones restrictivas y a intentos inútiles de detener el futuro. Esto incluye, sin duda, a la política: que el pueblo te elija para supuestamente representarle no implica que estés preparado para opinar – o peor, para legislar – sobre todos los temas. Si no se sabe de un tema, es mejor y más productivo para todos que se ejerza la responsabilidad necesaria para reconocerlo, abstenerse y solicitar la implicación de quienes sí lo dominan.

No es lo mismo, indudablemente, llevar a cabo una reflexión sobre los principios éticos que deben regir el desarrollo de la inteligencia artificial en Google, uno de los principales actores en el tema, que la está integrando en absolutamente todos sus productos y que se ha caracterizado precisamente por llevar a cabo una ambiciosísima iniciativa de formación de la práctica totalidad de sus empleados en esta disciplina, que tratar de desarrollarla en un gobierno, en un organismo supranacional o en cualquier otro entorno político en el que el conocimiento del tema está entre lo nulo, lo superficial y lo directamente alarmista. Reflexiones de ese tipo se van a intentar hacer en todo tipo de foros, y lo que más me interesa de ellas no son sus resultados, sino el proceso por el cual se lleven a cabo y las consecuencias que se pretenda que puedan tener.

Plantear interrogantes sobre el futuro y tratar de evitar consecuencias potencialmente negativas o no deseadas es una cosa, que si se hace con el rigor y la disciplina que Google ha puesto en ello, puede ser interesante y provechoso. Perseguir fantasmas y prohibir cosas por si acaso en alguna esquina aparece Terminator entre resplandores y nubes de humo es otra muy diferente, y nos puede llevar a verdaderas tonterías e intentos de detener el progreso y la evolución natural de la humanidad. Cuidado con los miedos irracionales, la desinformación, y con sus primos, la demagogia y el populismo. En el desarrollo de principios razonables y con sentido sobre el desarrollo de algoritmos de inteligencia artificial se juega una parte importante de nuestro futuro. La inteligencia artificial es cuestión de principios, sí. Pero de principios bien hechos.

 

IMAGE SOURCE: United States Senate Committee on Commerce, Science, and Transportation

La primera jornada de la declaración de Mark Zuckerberg ante el Comité del Senado de los Estados Unidos sobre Comercio, Ciencia y Transporte nos ha dejado más de cinco horas y media de comparecencia, algunas conclusiones interesantes, algunos momentos extraños, la subida en bolsa más grande de las acciones de la compañía en los últimos dos años, y la evidencia de que los miembros del comité, además de haber recibido muchos de ellos importantes contribuciones económicas de Facebook para sus campañas, tienen por lo general un muy escaso conocimiento de lo que es Facebook y a qué se dedica.

La evidencia es clara: esto es lo que ocurre cuando alguien crea una plataforma potentísima para la interacción entre personas y se plantea financiar su actividad mediante la publicidad segmentada, en un país en el que la privacidad tiene un nivel de protección prácticamente inexistente. Si ni el mismísimo Mark Zuckerberg es aún capaz de entender qué es lo que ha creado y sus posibles efectos, esperar que un puñado de senadores norteamericanos lo hagan y sepan, además, cómo arreglar sus efectos es, obviamente, una esperanza vana. La comparecencia la podemos ver entera si tenemos humor para ello, leer su transcripción completa o incluso ver parte de las notas de su protagonista, pero las conclusiones, mucho me temo, van a ser las mismas: en un país en el que la privacidad no es objeto de una protección excesiva, pretender que sea el fundador de Facebook el que sea quien explique cómo funciona y como debería funcionar su compañía es patentemente absurdo: lo que habría que hacer es llegar primero a un consenso de lo que es la privacidad y cuál es el nivel de protección que queremos para ella, regularla adecuadamente y, posteriormente, definirle a Facebook de manera inequívoca y no interpretable el entorno en el que tiene que llevar a acabo su actividad.

Mark Zuckerberg se defendió de las acusaciones de monopolio, desmintió leyendas urbanas como aquella que afirmaba que su compañía escuchaba las conversaciones telefónicas de sus usuarios para poder servirles anuncios más ajustados a sus intereses, y no se opuso a cierto nivel de regulación de su actividad, aunque se mostró evasivo sobre el tema y mostró claramente que su idea a largo plazo es seguir desarrollando inteligencia artificial para corregir algunos de los problemas de su plataforma. Visto así, la idea de hacer que el fundador de Facebook comparezca ante un comité del Senado para preguntarle sobre esos temas parece más bien inútil: de nuevo, lo que habría que hacer es decidir sobre esa posible regulación y su conveniencia, marcar unas reglas de juego claras que definan lo que se puede y no se puede hacer, y simplemente obligar a Facebook y al resto de las compañías que se dediquen o se quieran dedicar a lo mismo a cumplirlas de manera escrupulosa, con la correspondiente supervisión y sanciones en caso de incumplimiento.

Ese podría ser, precisamente, el tema en el que Europa podría llevar la delantera a los Estados Unidos con el desarrollo del Reglamento General de Protección de Datos (GDPR), una regulación que proviene de una clara demanda social, que es preciso gestionar como lo que es, una primera propuesta que hay que manejar con la adecuada flexibilidad y adaptarla a la luz de sus efectos, pero que al menos ofrece un marco claro en ese sentido. La posibilidad, como comentábamos hace pocos días, de que la propia Facebook se plantee ajustarse a ese nivel de protección de los datos personales no solo de cara a sus actividades en Europa sino de manera general en todo el mundo es, seguramente, la más interesante de todas las posibles consecuencias que haya podido tener el escándalo de Cambridge Analytica, y para los Estados Unidos y su claramente insuficiente entorno de protección de la privacidad, una posibilidad clara de plantearse un atajo en ese sentido. Otra cosa es que un país como ese, con esos políticos y con esa tradición cultural, sea capaz de plantearse o de poner en práctica un nivel de regulación mínimamente comparable al europeo: si algo demostró la comparecencia de ayer es que Facebook está más cerca de arreglar sus problemas con el recurso a la legislación europea o por su cuenta que dependiendo de las decisiones de los políticos del país en el que fue fundada.

 

Facebook logo on European flagDentro de los cambios que Facebook está poniendo en marcha a raíz del escándalo de Cambridge Analytica, encuadrados dentro de un reconocimiento de Mark Zuckerberg de que la compañía no hizo lo suficiente para custodiar de una manera adecuada los datos de sus usuarios, el fundador ha lanzado una idea que me parece como mínimo provocativa e interesante: la posibilidad de que su compañía se plantee ofrecer las mismas reglas a las que Europa le va a obligar mediante la nueva Directiva General de Protección de Datos, GDPR, pero a nivel mundial.

Que Facebook se plantee una posibilidad así marcaría un hito importante en la evolución del concepto de privacidad a nivel mundial: la visión europea, históricamente, ha sido siempre mucho más restrictiva y garantista que la tradicionalmente adoptada en el entorno anglosajón, y no ha estado exenta de polémicas. No han faltado ni sanciones a empresas norteamericanas por supuestas violaciones de derechos a ciudadanos europeos, ni leyes artificiales o sin sentido que han servido para construir un entorno que, en ocasiones, dificulta tanto los negocios que se convierte en absurdo. Extremos como la tristemente famosa ley referente a las cookies, que además de no servir absolutamente para nada, se convierten en una molestia y prácticamente un mal chiste, o un “derecho al olvido” inexistente y artificial pero tristemente consagrado como una ley que acabará, sin ninguna duda, trayendo muchos más problemas que beneficios, acompañados de legislaciones fuertemente restrictivas, como la actual GDPR, pero que parecen responder a un consenso social expresado de manera amplia y generalizada.

En este momento, nos encontramos ante una cuestión curiosa: la GDPR aún no ha entrado en vigor, aún es pronto para saber si será una bendición o una estupidez, y va a obligar a todas las empresas que quieran desarrollar actividades en Europa a fuertes ajustes y a designar figuras responsables. Pero incluso antes de esa entrada en vigor, y a la luz de los recientes escándalos que han promovido una fuerte discusión en torno al concepto de privacidad, es elevada por Mark Zuckerberg al nivel de estándar mundial, de salvaguarda que le pone a cubierto de escándalos futuros, en modo “si a partir de aquí hay problemas, no serán culpa de mi compañía, que va a cumplir con los estándares GDPR”. ¿Y si la puesta en funcionamiento de GDPR termina siendo un sinsentido burocrático o un brindis al sol tan inútil como el de la ley de las cookies? ¿Y si las compañías encuentran formas de retorcer el texto de la ley para continuar con comportamientos que los usuarios consideremos abusivos? ¿O si, por el contrario, da lugar a un entorno tan profundamente restrictivo, que termina resultando un freno para la innovación en su conjunto? Todas estas consideraciones, con la directiva aún e un estado embrionario, son aún difíciles de hacer, pero a pesar de ello, Facebook se plantea su aplicación como un safe harbor, como una garantía, como una manera de asegurar que ya hace todo lo que puede para respetar la privacidad. En muchos sentidos, una victoria para Europa. Pero en otros, obviamente, un peligro si algo termina saliendo mal.

Por otro lado, la visión de Zuckerberg me sigue preocupando: no, el balance entre el negocio de Facebook y su comunidad de usuarios no es en absoluto sencillo, y me parece peligroso que lo piense así. El funcionamiento de la plataforma de Facebook no es tan simple como permitir o prohibir cosas: en el momento en que, por ejemplo, habilitó la posibilidad de buscar a un usuario por número de teléfono o por dirección de correo electrónico, eso se convirtió en una puerta de entrada para que no solo Cambridge Analytica, sino miles de compañías en todo el mundo, creasen aplicaciones para hacer scrapping y obtener los datos personales de millones de usuarios. Entendamos que, para un usuario, la posibilidad de buscar a alguien de sus contactos por cualquiera de esos dos campos es, en esencia, algo deseable e interesante… pero una vez creada la función, puede ser fácilmente abusada. Controlar algo así no es en absoluto sencillo: implica poner bajo sospecha prácticamente cualquier cosa que las compañías puedan hacer, regular de una manera mucho más restrictiva todo lo que puedan intentar hacer con los datos de los usuarios, asumir que con total probabilidad, intentarán cometer abusos. Esa actitud de prevención es exactamente lo contrario de como Facebook ha actuado históricamente, dado que hasta el momento, ha pecado mucho más de ingenuidad – o incluso de estupidez – que como fiscalizador o limitante. Por otro lado, aún es pronto para saber si las palabras de Zuckerberg y sus intenciones con respecto a la GDPR se refieren a una adopción incondicional, o simplemente a una serie de criterios inspiradores que podrían resultar amplios, vagos o poco limitantes.

Veremos cómo evoluciona la cuestión en el futuro. Pero de entrada, considerar a Europa y a su aún no testada GDPR como garante de la privacidad, francamente, no sé si es una buena o una mala idea.