Twitter: chronological vs. algorithmic timelineTwitter anuncia a través de su cuenta de soporte que, en su última actualización, permite ya a los usuarios elegir entre visualizar su timeline en el modo algorítmico, con las actualizaciones supuestamente más relevantes primero, o volver al modo puramente cronológico original que la compañía utilizaba antes de 2016, sin sazonarlo con elementos adicionales.

A principios de 2016, la compañía decidió intentar mejorar el nivel de uso de su plataforma desarrollando un algoritmo que trataba de mostrar al usuario aquellas actualizaciones que podían haberse perdido, pero que eran susceptibles de interesarles. Al hacerlo, rompieron lo que hasta el momento había sido un principio fundamental de Twitter: el timeline discurría en orden cronológico, con las actualizaciones más recientes arriba. Tras muchas iteraciones e intentos de mejora del algoritmo en cuestión tratando de buscar más relevancia, la compañía podría ahora reconocer que el elemento cronológico es un elemento fundamental de Twitter, es lo que los usuarios esperan, y que interferir con ello podría no ser una buena idea.

Ahora, basta con ir a la configuración de la cuenta, entrar en las preferencias de contenido, y desactivar la opción que dice “Mostrar los mejores tweets primero” para recuperar las actualizaciones en modo cronológico, sin interferencias algorítmicas del tipo “Por si te lo perdiste” o “a Fulanito y Menganito les ha gustado este tweet“. En mi caso, mantengo la opción de relevancia desactivada desde el principio intentando mantener el orden cronológico, y a pesar de cerrar sin piedad siempre todas las sugerencias de ese tipo que la compañía me hacía y de ver como cada vez se me prometía que vería ese tipo de recomendaciones en menos ocasiones, la promesa se probaba falsa una y otra vez, y esas sugerencias seguían apareciendo.

Aunque Twitter afirma llevar tiempo trabajando en el desarrollo de elementos que permitan al usuario ejercer un mayor nivel de control sobre su timeline, la llegada de este cambio podría venir precipitada por un hilo creado por una usuaria en el que se especulaba con la posibilidad de que excluyendo determinadas palabras se pudiese obtener un timeline puramente cronológico, hilo que se viralizó hasta alcanzar más de 15,000 retweets y 40,000 likes. Que un elemento aparentemente anecdótico como ese recibiese tanta atención ha llevado a la compañía a pensar que podía haber un importante contingente de usuarios que preferían el orden cronológico al de un algoritmo que, además, no era en absoluto claro en su formulación, y en consecuencia, a adelantar la presentación del elemento.

La obsesión de Twitter por ganar control sobre lo que los usuarios ven o dejan de ver ha chocado con un elemento fundamental: el timeline tenía un funcionamiento perfectamente claro y sencillo, que cualquiera podía entender de manera inmediata, y añadir a él un algoritmo provoca una molesta sensación de ausencia de control. Poco importa que el algoritmo esté genuinamente diseñado para evitar que te pierdas cosas que te interesan, para hacer que te sientas mejor informado o para supuestamente mejorar la propuesta de valor del producto: los usuarios querían su timeline en orden cronológico porque es lo que aprendieron a apreciar de Twitter en su momento, y cualquier cambio en ese sentido les generaba una experiencia incómoda, una impresión de que lo que veían ya no dependía de ellos y de las cuentas a las que decidían seguir, sino de un tercero convertido en omnipotente que tomaba decisiones por ellos. El algoritmo podía estar trabajadísimo, considerar elementos de personalización verdaderamente interesantes y hacer un buen trabajo estimando las preferencias de los usuarios… pero simplemente, nadie lo quería: el usuario medio prefería la simplicidad de lo conocido y la referencia cronológica que esperaba.

Twitter seguirá ofreciendo elementos como la página de búsqueda en la que se podrán visualizar inmediatamente elementos como los trending topics o los momentos, que permiten hacerse una idea de lo que está pasando independientemente de las cuentas que uno decida seguir, pero ahora, dependerán de una acción adicional del usuario, la de acudir a la búsqueda. En el funcionamiento básico de la aplicación, sin embargo, el usuario podrá volver al modo puramente cronológico, dejar de lado al algoritmo y recuperar la sensación de control sobre su timeline sin interferencia alguna. Un buen caso sobre la necesidad de escuchar a los usuarios, entender sus preferencias y permitir que disfruten de tu producto como todo indica que quieren hacerlo, sin que seas tú el que les diga de qué manera lo tienen que hacer. Por interesantes y sofisticados que parezcan, no todos los algoritmos son buenos o resuelven un problema. Algunos, de hecho, lo crean. Algunas cosas, parece, son mejores cuanto más simples.

 

IMAGE: Max Pixel - CC0El gobernador del estado de California, Jerry Brown, ha aprobado una ley que, a partir de octubre de 2019, eliminará el pago de fianza en los tribunales, y recurrirá en su lugar a algoritmos que estimarán el riesgo de fuga o de cometer delitos adicionales en caso de ser puestos en libertad. El algoritmo, que los diferentes condados tendrán obligación de obtener bien a través de algún proveedor o mediante desarrollo propio, calificará ese riesgo como bajo, medio o elevado y, en función de la calificación obtenida, el juez decidirá poner al presunto delincuente en libertad o mantenerlo en custodia.

La eliminación de la fianza en forma de pago monetario se considera, como tal, un éxito para los defensores de los derechos civiles, que afirmaban que esa práctica era discriminatoria y daba lugar a una justicia diferente para ricos y pobres, en la que el hecho de no tener recursos económicos conllevaba una condena al paso por prisión que, en muchos casos, se convertía en parte del problema. En palabras de Brown,

“Today, California reforms its bail system so that rich and poor alike are treated fairly”

(“Hoy, California reforma su sistema de libertad bajo fianza para que tanto ricos como pobres reciban un trato justo”)

Sin embargo, la satisfacción de los defensores de los derechos civiles no es completa: no son pocos los temas, y particularmente aquellos relacionados con la justicia, en los que los algoritmos, alimentados con datos obtenidos del propio sistema de justicia, han mostrado sesgos que tienden a perjudicar a las personas en función de su raza o de su estatus socioeconómico. No hay nada que convierta a un algoritmo, por el hecho de serlo, en algo intrínsecamente neutral: de hecho, los algoritmos construyen sus sesgos a partir de los datos con los que son alimentados, lo que incrementa el riesgo de perpetuar sesgos que, en muchos casos, ya existían anteriormente.

Por otro lado, muchos algoritmos son definidos como propietarios para proteger la propiedad intelectual de las compañías que los desarrollan, lo que genera la aparición de cajas negras contra las que resulta difícil plantear una argumentación de defensa. Esta cuestión se puso ya de manifiesto con el uso de COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), un algoritmo desarrollado por Equivant para estimar el riesgo de reincidencia de los convictos y ayudar a los jueces a tomar decisiones sobre la extensión de sus penas. Una decisión tomada por ese algoritmo fue objeto de apelación en el caso Loomis v. Wisconsin, en el que el acusado alegó que el uso de dicho algoritmo en el cálculo de su sentencia, un veredicto de seis años de cárcel, violaba sus derechos porque evitaba que impugnase la validez científica y la precisión de la prueba al desconocer el funcionamiento del algoritmo, y porque éste tenía además en cuenta variables como el género y la raza del acusado.

La legislación aprobada por el estado de California establece un período de revisión para el funcionamiento del sistema algorítmico que culminará en 2023 tras cuatro años de funcionamiento y generación de datos, momento en el que se examinará el conjunto de decisiones tomadas mediante su uso y se tratarán de determinar los posibles efectos producidos. La llegada de los sistemas basados en algoritmos a los sistemas judiciales puede suponer un alivio importantísimo para la carga de trabajo de los tribunales, particularmente en la instrucción de muchos casos considerados habitualmente como rutinarios que podría ser realizada de manera razonablemente automatizada en sus primeras fases, con la adecuada supervisión. Sin embargo, todo indica que uno de los factores fundamentales debería ser la existencia de un requisito de transparencia que permitiese a todas las partes implicadas conocer de forma transparente el funcionamiento de esos algoritmos, las variables y los pesos empleados para la determinación de los resultados, además de asegurar que los datos utilizados para entrenar a esos algoritmos no contienen, como tales, factores que determinen la aparición de sesgos no justificados. Una tarea que no parece sencilla, pero cuyos resultados podrían ser importantísimos de cara a resolver el problema del colapso de la justicia, el protagonista de esa otra máxima que dice “justicia retrasada es justicia denegada“.

¿Cómo evolucionará el sistema aprobado por el estado de California? ¿Puede llegar a suponer una ventaja en términos de justicia y equidad con respecto al sistema anterior? ¿Qué discusiones vamos a mantener a partir del momento en que más y más algoritmos entran en nuestros sistemas judiciales?

 

IMAGE: Janajech - Creative Commons BY SADos artículos largos muy recomendables hablan sobre la evolución de la publicidad en la red y cómo pasó de ser una actividad que meramente trasladaba el negocio del papel a la pantalla, y pasó a ser el dominio de la matemática, la estadística y la analítica. Por un lado, Adrianne Jeffries incide en el origen de la publicidad programática, la que a día de hoy crece de manera más pronunciada en prácticamente todos los mercados, y su origen por parte de Right Media en 2005, en How to succeed in advertising (and transform the internet while you’re at it). Por el otro, Ken Auletta describe en How The Math Men overthrew The Mad Men o detallando cómo los “math men” destronaron a los “Mad Men” e incide en el cambio de los perfiles requeridos para trabajar en una industria a la que la transformación digital ha llegado decididamente para quedarse – con todo lo que ello conlleva. Me han parecido lecturas imprescindibles para cualquier que aspire a entender tanto el panorama de la publicidad en la red, como para quienes busquen referencias para anticipar el efecto de la automatización, la algoritmia y el machine learning sobre cualquier industria.

¿Cómo se decidía, hace algunos años, el mix de medios en los que se programaba una campaña? Básicamente se dependía de agencias de medios. Una industria con una marcada tendencia a la opacidad y la ocultación de información, que no solo vive de la intermediación entre anunciantes y soportes, sino que además, lo hace infringiendo una de las reglas fundamentales de la teoría de agencia: además de hacer una labor de agente supuestamente a favor del anunciante, las agencias también cierran acuerdos con las publicaciones, a las que demandan el pago de extratipos o comisiones por volumen, lo que impide que esa labor de intermediación tenga lugar en términos transparentes. Bajo unas condiciones así, el anunciante nunca puede saber si los medios que la agencia le recomienda son los que realmente convienen para exponer su mensaje al segmento al que debe llegar, o si simplemente la agencia, como ocurre en algunos casos, se limita a recomendarle los medios que le ofrecen un extratipo más elevado, una mejor comisión.

¿En qué se ha convertido, en un número creciente de casos, esa actividad? En un proceso, la compra programática, en el que la intervención humana se reduce únicamente a la determinación del target y de una serie de restricciones, mientras la plataforma ofrece oportunidades de compra y las asigna en función de una subasta en tiempo real. En una sola generación de desarrollo algorítmico, las personas hemos pasado a ser relativamente prescindibles en el flujo productivo de la industria publicitaria, en las decisiones del día a día del tipo “lancemos esta campaña aquí o allí”, y muchos de los procesos han pasado a depender únicamente de la interacción entre anunciantes y soportes dentro de una plataforma publicitaria.

Sin embargo, esto no ha determinado ningún tipo de éxodo o apocalipsis: la transformación se ha dado de una manera razonablemente ordenada, las compañías han ido incorporando – en la mayoría de los casos – o formando – en menor medida – los perfiles que necesitaban, se han creado nuevos puestos, y se ha reducido el papel de algunos intermediarios que, en el nuevo contexto, ya no aportaban valor ni valían en absoluto lo que pretendían cobrar. Esos intermediarios no han desaparecido, y se mantienen básicamente gracias a los hábitos de anunciantes que aún no se han dado cuenta o ha entendido que el mundo ha cambiado, que simplemente no quieren complicaciones ni riesgos de ningún tipo, o que prefieren sacrificar margen a perder familiaridad con los procesos de negocio que han conocido durante toda su vida profesional. Han surgido nuevos intermediarios, no todos transparentes ni honestos, que van desde los que controlan flujos de tráfico hasta los que lo fabrican, lo falsean y lo venden, y la industria, sencillamente, ha cambiado hasta el punto de que si alguien que trabajase en la publicidad durante la primera década del siglo fuese descongelado en la segunda, seguramente tendría graves problemas para desempeñar su actividad, y se encontraría con que sus habilidades ahora cuentan bastante poco.

Una metáfora interesante para las industrias en reconversión de la mano de la transformación digital: los mercados son muy grandes, hay muchos participantes que cambian a muy distintos ritmos – como muy bien dijo el escritor de ciencia-ficción canadiense William Gibson, “el futuro ya está aquí, solo que no está uniformemente distribuido” – y eso lleva a que sean muy pocos los casos en los que se generan verdaderos cataclismos apocalípticos, provocando que se hable más de evoluciones que de revoluciones. ¿Ha cambiado la industria de la publicidad? Sin duda, y le queda aún mucho por cambiar, por evolucionar y por equilibrar. Se ha producido una reconversión importante, y en muchos casos – no en todos – para bien. Sigue habiendo, como en todas las industrias, actores buenos, malos y regulares, aunque la tecnología utilizada haya cambiado y la trazabilidad debiera ser, supuestamente, mucho mayor. Sin embargo, esa heterogeneidad en la adopción hace que hoy puedas montar un diario en cualquier sitio, simular una gran audiencia adquiriendo flujos de tráfico completamente falsos y que no se corresponden con usuarios reales o interesados en lo que publicas, e incluso llegar a adquirir un cierto nivel de influencia basada en esa simulación de la realidad.

¿Hemos mejorado? Depende para quién. Pero de nuevo, la tecnología no se desinventa, no se detiene, y sus propuestas terminan siendo adoptadas por mucho que algunos pretendan resistirse a ellas. Cambios que no traen ni infiernos, ni paraísos: solo nuevos contextos a los que adaptar la actividad de todos aquellos que sepan hacerlo. La vida sigue. Si tienes dudas sobre la transformación digital y sus efectos sobre las industrias, estudia la experiencia de la evolución de la publicidad.

 

Library archive systemFacebook comenta, en una de las conferencias de su F8, cómo utiliza las etiquetas en los varios miles de millones de fotografías que los usuarios suben a Instagram, para entrenar a sus algoritmos de reconocimiento de imágenes, y cómo eso le ha permitido mejorar los estándares de la industria en este sentido y que sus algoritmos sean capaces de alcanzar una fiabilidad del 85.4%

La idea de Facebook de utilizar las imágenes subidas y etiquetadas por sus usuarios para entrenar algoritmos de reconocimiento ya había sido puesta en práctica anteriormente por Google, que utiliza los vídeos etiquetados de YouTube también de manera sistemática para exactamente lo mismo: a la hora de explicar a un algoritmo en qué consisten verbos como abrazarse, pelearse o cocinar, por ejemplo, pocas cosas pueden ser más explicativas que un vídeo etiquetado con esas palabras. El sistema, obviamente, no es perfecto, pero los errores cuando hablamos de etiquetado de una fotografía o vídeo llevado a cabo por el usuario que lo ha subido son más bien escasos, porque por norma general, el etiquetado tiene como misión facilitar una mejor localización del contenido.

Quien tiene un conjunto de datos etiquetados de manera razonablemente fiable tiene un tesoro, porque puede utilizarlos para entrenar a un algoritmo y conseguir que una máquina sea capaz de entender el significado de lo que hay en esos datos. Recientemente comenté el caso de Qure.ai, una compañía con la que entré en contacto a través de Netexplo, que recopilaba archivos de radiólogos y otros profesionales médicos que trabajaban con imágenes (escáneres, tomografías, etc.) y que solían guardarlos etiquetados con el diagnóstico correspondiente. Eso permitía, alimentando al correspondiente algoritmo, desarrollar un sistema capaz de diagnosticar tumores a partir de imágenes médicas, algo que hoy es preciso llevar a cabo de manera manual y que, obviamente, no está exento de error. Con el tiempo, la predicción de la compañía era que, a medida que la fiabilidad del algoritmo se incrementaba, los médicos muy probablemente dejarían de querer diagnosticar esas imágenes manualmente por miedo a pasar por alto determinados patrones que la máquina sí podía reconocer, algo que eventualmente, a lo largo del tiempo, podría determinar que esa habilidad se perdiese.

Cada vez está más clara la importancia de que las compañías de todo tipo sean conscientes de estas cuestiones. La clave ya no está en contar con los mejores profesionales, sino en el hecho de que tu actividad te permita generar datos estructurados que puedan ser utilizados para entrenar a los correspondientes algoritmos. Da igual lo que hagas, plantéatelo: ¿cómo podrías hacer que el día a día, la operativa de tu compañía sea capaz de generar ese repositorio de datos correctamente etiquetados que puedan ser suministrados a un algoritmo para su aprendizaje? ¿Qué podríamos llegar a hacer si un algoritmo consigue un nivel de fiabilidad elevada en ese sentido?

Como en todo, la cuestión es más de mentalidad que de otra cosa. Entender el problema permite llegar antes no solo a una definición de objetivos razonables, sino también a una identificación más rápida de problemas potenciales que permita trabajar en su resolución. A la hora de imaginar qué tareas puede llegar a hacer un algoritmo, la mayor parte de los directivos se encuentran con limitaciones de planteamiento: ven una gran cantidad de sus procesos como intrínsecamente humanos, y son incapaces de imaginar que determinadas habilidades para las que hoy se requiere una persona puedan llegar a ser dominadas por una máquina. Obviamente, los algoritmos no van a hacerlo todo, o al menos no de la noche a la mañana: los proyectos de machine learning precisan de una primera fase sumamente compleja y dura en la que que hay de definir objetivos concretos, recolectar datos, transformarlos y suplementarlos con más datos adicionales antes de poder pasar a armar modelos y hacer predicciones o diagnósticos que puedan ser evaluados… pero a pesar de la dificultad de esos proyectos, una cosa está clara: los datos son la auténtica barrera de entrada, la clave de la cuestión, lo que va a diferenciar a las compañías capaces de avanzar en ese sentido de aquellas que no lo consigan.

Orientar la actividad de una compañía a la generación de datos analizables no es algo que requiera un enorme esfuerzo ni cambios radicales: simplemente requiere entender los objetivos y atacar el problema de la manera adecuada. Empezar pronto, en cambio, es una garantía de, cuando menos, tener hechos los deberes para lo que pueda venir. Los datos como auténtica ventaja competitiva. Las compañías tecnológicas hace tiempo que lo tienen claro. ¿Qué puedes hacer tú en la tuya?

 

Google ClipsConfieso que este tema me tiene fascinado cuanto más leo sobre él: Google Clips es una cámara wearable, es decir, pensada no para sacarla del bolsillo y tomar un a fotografía – para esto ya está el smartphone – sino para ser llevada enganchada en algún lugar de la ropa o dejarla en algún punto concreto, y que vaya tomando fotografías animadas de hasta quince segundos de manera automática, como pequeños GIFs o live photos. Lógicamente, el dispositivo no se limita a ir tomando imágenes a intervalos prefijados, sino que utiliza algoritmos de machine learning para entender en qué momentos debe tomar esas fotografías, tratando de generar así un relato completo de la persona que la lleva encima. Según la compañía, “Clips busca imágenes estables y claras de personas, buenas expresiones faciales como alegría, reconoce también perros y gatos, y tiende a tener preferencia por cuando hay algún movimiento en la escena”. Es el concepto del lifestreaming, la vida que transcurre ante la cámara y es capturada por esta. No requiere una conexión de datos, ni una cuenta: simplemente toma imágenes en alta resolución, y las monta en un vídeo que puedes ver posteriormente en tu smartphone.

Algoritmos similares los hemos podido ver aplicados a otras cuestiones, como cámaras de seguridad inteligentes capaces de tomar imágenes únicamente cuando detectan movimiento o cuando capturan determinadas imágenes que le hemos solicitado previamente, pero no están diseñadas para ser llevadas encima, sino para ser ubicadas de manera razonablemente permanente en una localización determinada.

El producto puede ser adquirido en los Estados Unidos ($249 con envío gratuito en la tienda Google, en la que tienes que tener registrada una dirección en el país) desde el pasado 27 de febrero, y ya ha sido analizado por algunas publicaciones. El anuncio de su comercialización el pasado octubre hizo bajar el precio de las acciones de GoPro y generó bastantes comentarios, la mayoría en el sentido de considerarla “the new candid camera, la nueva “cámara oculta”, aunque en realidad no esté oculta y posea un piloto que permite saber a quienes están ante ella cuándo está tomando imágenes, aunque es más que posible que termines olvidándote completamente de ella. La cámara no es especialmente pequeña ni especialmente discreta, pero sin duda, evoca desde episodios de Black Mirror hasta libros o su correspondiente película dedicados a explorar las posibles consecuencias de un mundo en permanente retransmisión, entregado al concepto de transparencia total.

A estas alturas es perfectamente posible que el producto sea simplemente un experimento, una de esas líneas no exitosas que la compañía termina eliminando discretamente en alguna de sus Spring cleaning, o una forma de demostrar cómo de potentes son ya sus algoritmos de machine learning, pero me parece interesante reflexionar a qué tipo de mundo nos llevaría un producto así en caso de llegar a popularizarse, o qué puede pretender Google con ello. ¿Cómo te comportarías ante una persona que llevase colgada en su bolsillo una cámara como ésta, o que situase esa cámara apoyada en su clipstand en un punto que te incluyese? La popularización del smartphone con cámara ya ha hecho que muchos se planteen que viven en un mundo en el que todo el mundo lleva una cámara en el bolsillo, con todo lo que ellos conlleva: todo lo que hagas puede ser inmortalizado, capturado y compartido, sin que nadie se detenga a analizar las posibles consecuencias o la normativa legal que rodea a la captación o difusión de esas imágenes. ¿Qué ocurre cuando esa cámara, en lugar de simplemente ir alojada en el bolsillo y precisar de un gesto y una voluntariedad para capturar imágenes, vaya permanentemente encendida, preparada para hacer su trabajo, y provista de algoritmos capaces de decidir qué imágenes vale la pena capturar y cuáles no? ¿Nos acostumbraríamos a algo así y a sus consecuencias del mismo modo que hemos aceptado como inevitable la cámara del smartphone?

La vida es eso que transcurre mientras hacemos otras cosas. Revivirla como tal no es posible, e intentarlo mediante el recurso a fotografías o vídeos implica, en muchas ocasiones, hacer un esfuerzo consciente por capturarla, por obtener imágenes o vídeos que podamos utilizar posteriormente para evocar esos recuerdos, lo que habitualmente puede implicar vivirla de una manera que muchos consideran de inferior calidad: alguien que en lugar de centrarse en el momento que debería estar viviendo, se está preocupando por registrarlo en un dispositivo tiende a provocarnos reacciones negativas, aunque en muchos casos esas personas afirmen que su pasión es la fotografía o el vídeo y que disfrutan más así, entregados a ella. ¿Qué pasa cuando esa captación de imágenes para su evocación posterior se lleva a cabo de manera rutinaria, sin que el usuario tenga que hacer nada, y empezamos a aceptarlo simplemente como un hecho más, una característica de la vida cotidiana?

Es pronto para saber si un dispositivo de este tipo triunfará o no, si comenzaremos a verlo colgando del bolsillo de determinadas personas, si dará lugar a problemas o a situaciones imprevisibles derivadas de su protocolo de uso, si afectará a las normas de educación, o si el concepto será replicado por otros fabricantes para diseñar dispositivos mucho más pequeños o incluso intencionadamente ocultos, disimulados, difíciles de detectar. Pero que la tecnología permita crearlos es una de esas situaciones que nos puede llevar a plantearnos muchas cosas, a imaginarnos cómo podría cambiar nuestra vida si todos los momentos que vivimos en ella pudiesen estar siendo capturados no ya por una cámara en manos de un amigo o un familiar, sino por todas las que llevan aquellos que se cruzan con nosotros. ¿Qué cambios determinaría algo así en la sociedad en la que vivimos? ¿Podría un producto así y su eventual popularización determinar que viviésemos en un entorno en el que esas cámaras estuviesen presentes de manera ubicua, en el que lo normal cuando vas a casa de alguien es que haya varias cámaras apuntándote durante el aperitivo o la cena, para después compartir contigo un vídeo en modo “mira qué bien nos lo pasamos”? ¿Nos acostumbraremos a algo así y pasaremos a verlo com algo normal? ¿Cuántas cámaras a la vez captarían un momento como una boda, o cualquier otro que se considere adecuado para ser evocado posteriormente, y además, sin que las personas que las llevan encima siquiera se dieran cuenta en el momento?

Pensar en esa idea de “vida televisada” o en modo “captura permanente” requiere un esfuerzo de proyección, de imaginar las posibles consecuencias y los cambios que acarrearía en la forma que tenemos de entender muchas cosas. Muy pronto, posiblemente, para un producto recién lanzado que perfectamente podría quedar como una rareza, un experimento más, o incluso como una extravagancia o algo que genere rechazo. No pretendo hoy elucubrar sobre la posible popularización del producto, sino más bien plantearme qué ocurriría si lo tuviera. Después de todo, no deja de ser algo que hasta hace poco no era fácilmente planteable y que la tecnología ha convertido en sencillo, aparentemente además con buenos resultados. Y para eso, para especular sobre la tecnología y sus posibles efectos, es para lo que estamos aquí! :-)