IMAGE: Roman Fedin - 123RFComo parte de su resolución para arreglar los problemas de Facebook, Mark Zuckerberg ha publicado una nueva entrada en su página en la que apunta algunas ideas sobre cómo pretende llevar a cabo la selección de noticias que los usuarios podrán ver en sus News Feeds.

Y si lprimera medida, modificar el News Feed para reducir el alcance de las noticias y los vídeos, y reforzar la presencia de los contenidos creados por tus amigos, abrió la polémica sobre la interacción entre la red social y los medios de comunicación, la segunda promete hacerlo mucho más aún: según Mark, la compañía debe crear un ranking con la fiabilidad de las fuentes de información, pero dado que no se sentía cómoda tomando la decisión sobre qué medios deben ser considerados fuentes confiables, y que tampoco veía con buenos ojos la posibilidad de crear un comité externo para ello, se ha decidido por la tercera posibilidad: la de preguntar a sus usuarios

Las preguntas son inmediatas: ¿podemos fiarnos de la opinión de los usuarios de una red a la hora de decidir qué fuentes son fiables y cuáles no? La pregunta es la misma que suele utilizarse a la hora de criticar la democracia como sistema: ¿por qué los votos de determinadas personas valen tanto como los de otras? ¿Qué ocurre en una red de más dos mil millones de usuarios cuando, por ejemplo, todos los lectores de una fuente abiertamente sensacionalista, ferozmente sesgada o fuertemente polémica es artificialmente considerada por todos sus lectores habituales como la más fiable? Después de todo, los diarios sensacionalistas están entre los más populares en muchos países, lo que indica que, obviamente, tienen un público, algo que seguramente forma parte de la condición humana.

Según la escasamente detallada entrada de Mark, la idea es preguntar a los usuarios su nivel de familiaridad con una fuente determinada, para posteriormente pedirles que se pronuncien sobre su fiabilidad. Lo que aparentemente se pretende es separar aquellas publicaciones que únicamente son consideradas fiables para sus lectores o observadores, frente a aquellas que aparecen como ampliamente fiables para toda la sociedad, incluso para aquellos que no las siguen directamente. Al eliminar de la muestra a aquellos que no están familiarizados con una fuente, el resultado pasa a ser una proporción entre aquellos que confían en una fuente y aquellos que están familiarizados con ella, lo que, de nuevo, vuelve a plantear todo tipo de preguntas: ¿qué ocurre a la hora de intentar preservar un equilibrio entre las fuentes grandes, evidentes y fuertemente consolidadas o establecidas, frente a publicaciones más pequeñas, especializadas, o de nueva creación? ¿Se convertirá Facebook en un “club de viejas glorias” en el que únicamente se acepta a “las fuentes de toda la vida”? ¿Cómo evitar que los usuarios mientan, y distorsionen esa  proporción afirmando tener familiaridad con una fuente aunque no la tengan, calificándola como no fiable aunque sepan que realmente lo es, o viceversa? ¿O incluso que las propias publicaciones llamen a sus lectores a tomar partido, editorialicen sobre las intenciones de Facebook, y pretendan crear estrategias para manipularlas? Después de todo, es más que posible que una gran proporción de los que comparten noticias falsas lo hagan sabiendo perfectamente que son falsas, pero pretendiendo extender su alcance porque, sencillamente, esas falsedades son mentiras que quieren creerse, que desearían que fueran ciertas, o que coinciden bien con su visión del mundo.

Las noticias falsas no responden a una dinámica única, no son sencillamente usuarios engañados por un titular o por un contenido. En realidad, el problema es mucho más complejo, y esconde desde intereses definidos, hasta, en ocasiones, simple curiosidad, morbo o interés por ver argumentos contrarios. Después de todo, el comodín del público, el simplemente lanzar una pregunta a la audiencia considerándola a toda ella apta para contestarla, genera en muchas ocasiones respuestas ampliamente desinformadas, en función de la creencia más popular, de las mentiras mejor vendidas o más atractivas, o simplemente de lo que cree alguien que no tiene preparación para dar una respuesta. La pregunta directa de cómo de fiable es una fuente es más que probable que no responda a las características de la fuente, sino a la distancia ideológica entre su línea editorial y las opiniones de la persona que opina sobre ella. ¿Es posible evitar, detectar o tener en consideración estos factores a la hora de tomar decisiones sobre qué fuentes de información son consideradas fiables y cuáles no? ¿Que puede hacerse algorítmicamente a la hora de detectar esos patrones de posible fraude, sea intencionado o construido artificialmente como parte del funcionamiento del sistema? ¿Puede llegarse a una única clasificación universal sobre fiabilidad? ¿Cuál puede ser el resultado de tal intento?

 

Blockchain en Los Desayunos de RTVEEsta mañana participé brevemente en Los Desayunos de RTVE, hablando sobre blockchain y su futuro. Sergio Martín, el director y presentador del programa, recordó que habíamos hablado sobre el tema hace algo más de tres años en su programa anterior, La Noche en 24 horas, mucho antes de que el concepto se volviese tan comentado y de actualidad, y volvió a recurrir a mí para intentar trasladar una breve definición de lo que es y significa la cadena de bloques: una solución elegante de base de datos distribuida basada en un enlace entre cada dato o transacción utilizando habitualmente una prueba de trabajo criptográfica.

Así de sencillo: a cada dato o transacción se le añade un sello temporal, y se añade a un registro en el que se enlaza con el dato o transacción anterior, requiriendo para ello una prueba criptográfica con una solución única. Tras añadirla a la cadena, es imposible modificarla – podría modificarse en una transacción posterior, por supuesto, pero el dato anterior se mantendría allí – y dado que la cadena está replicada en todos los ordenadores participantes, resulta prácticamente imposible alterarla.

Dado que mi participación tenía lugar inmediatamente después de un bloque dedicado a la evolución de las criptomonedas, intenté dejar claro que aunque la mayoría de las criptomonedas actualesno todas – se basan en la cadena de bloques, en realidad el mecanismo sirve para absolutamente cualquier cosa, y de hecho, la veremos aplicada a la práctica totalidad de los sistemas transaccionales, sean archivos de tránsito de contenedores, registros de calificaciones académicas para evitar el fraude curricular, registros de la propiedad de bienes inmuebles, o lo que se nos pase por la imaginación. Que el uso más conocido o comentado en la actualidad de la cadena de bloques sean las criptomonedas es simplemente un reflejo de que la cadena de bloques ha servido, como sistema de registro de transacciones que es, para “democratizar” la creación de una criptomoneda, que puede ser creada en prácticamente cualquier momento y por cualquiera, pero no será el uso más habitual que veremos en el futuro.

¿Va a cambiarnos la vida la cadena de bloques como lo hizo en su momento internet? No creo que sea comparable. La cadena de bloques se convertirá, cada vez más, en la base de todos los sistemas transaccionales, pero su efecto será bastante transparente: simplemente, esos procesos transaccionales pasarán a estar soportados por cadenas de bloques y se convertirán en mucho más fiables, pero no será un cambio que afecte esencialmente a cómo interaccionamos con ellos, sino al mecanismo que tienen detrás.

Tras mi participación en el programa, añadí en Twitter un par de enlaces para profundizar: uno, sobre el efecto e importancia de blockchain, el prólogo que escribí para la edición española de “La Revolución Blockchain“, el libro de Don y Alex Tapscott. Otro, la fenomenal entrada escrita por Héctor Sánchez MontenegroNational Technology Officer de Microsoft Ibérica, en la que explica el concepto de forma accesible para cualquiera, pero sin desvirtuar su esencia (me llevé a Héctor a una de mis clases en IE Business School hace algún tiempo precisamente a raíz de esa misma entrada). 

Los Desayunos es un espacio, obviamente, muy distinto al que me daba La Noche en 24 horas: primera cadena en lugar de un canal temático, una franja horaria completamente diferente, y en consecuencia, una audiencia completamente distinta, pero también muy interesante y con buenas posibilidades de utilizarlo para lanzar explicaciones fáciles de entender sobre temas que muchos tienden a considerar complejos, un tipo de misión que considero muy adecuada para una cadena de televisión pública. Y en cualquier caso, un tema fascinante, con una proyección brutal que, como siempre comenté, va mucho más allá de las criptomonedas, y una buena oportunidad para volver a colaborar con Sergio Martín en RTVE.

 

IMAGE: Zerbor - 123RFInteresantísimo articulo que merece una reflexión en The Wall Street Journal, The antitrust case against Facebook, Google and Amazon, sobre los posibles argumentos para aplicar la legislación antimonopolio a compañías tecnológicas que poseen participaciones de mercado desmesuradamente altas, perfectamente comparables a los casos clásicos y paradigmáticos de la historia del management como Standard Oil Co. o American Telephone and Telegraph Co., y lo que esto podría implicar de cara al futuro. 

A nivel mundial, en diciembre de 2017, más del 91% de las búsquedas se hacían en Google, un porcentaje que en muchos países supera el 95% ó 96%. El 87.7% de los smartphones utilizan Android como sistema operativo. En el mundo de las redes sociales, Facebook tiene más de 2,000 millones de usuarios en todo el mundo, además de los 800 millones de Instagram, los 1,200 millones de Facebook Messenger o los más de 1,300 millones de WhatsApp. En comercio electrónico, Amazon es un monstruo con actividad en todo tipo de productos, que domina no solo su actividad original, los libros, sino industrias tan variadas como el cloud computing o los smart speakers.

¿Cuáles son los efectos de una industria tecnológica tan intensamente polarizada? Dejando al margen la discusión sobre si esas posiciones se obtienen por méritos propios o mediante el recurso a estrategias anti-competitivas, las cuotas de mercado tan elevadas nunca han sido una buena noticia para nadie más que para el que las posee (o posiblemente, si lo pensamos en términos de largo plazo y sostenibilidad, ni eso) y, como ocurre en Biología con los monocultivos, son una de las formas más claras de incrementar la vulnerabilidad a determinados problemas. Que Android, por ejemplo, se convierta prácticamente en el sinónimo de smartphone puede parecer una gran victoria del código abierto, pero en realidad, es el requisito necesario para que atraiga problemas de seguridad importantes, como el recientemente identificado Skygofree, con capacidades de espionaje nunca vistas anteriormente, o como desde hace muchos años ocurre con Windows en el ámbito de los ordenadores personales. Que Facebook se convierta en el sitio donde más norteamericanos consumen sus noticias es lo que lleva a países como Rusia a plantearse utilizarlo como herramienta para influenciar el resultado de sus elecciones presidenciales.

¿Es de alguna manera beneficioso para los usuarios que las empresas sobrepasen determinados niveles de cuota de mercado? En el mundo de la tecnología, todo indica que no: las compañías que alcanzan un dominio del mercado incontestable pasan a disfrutar de una situación en la que la práctica totalidad de los avances de su industria provienen de ellas mismas, lo que suele implicar una ralentización de la innovación, que pasa a estar supeditada a la agenda corporativa o a afrontar cualquier amenaza externa con una simple adquisición, como es el caso de Facebook. ¿Que alguna compañía consigue innovar y destacarse en mi ámbito? O le hago “una oferta que no pueda rechazar”, o, si está tan loco como para rechazarla, copio su producto y prestaciones y simplemente espero.

La legislación y las autoridades anti-monopolio se crearon como respuesta a un problema intrínseco del capitalismo. La evolución de la economía ha ido demostrando que gracias a la tecnología, los monopolios se alcanzan cada vez de manera más rápida e indiscutible, dando lugar a estructuras que no redundan en beneficios para prácticamente nadie más que aquel que es capaz de explotar su ventaja para distorsionar el mercado. Si combinamos esto con el crecimiento de las actividades de lobbying, nos encontramos ante una situación que tiende a aceptar correcciones del regulador de una manera cada vez más excepcional: las autoridades anti-monopolio, en realidad, llevan a cabo su papel corrector en cada vez menos ocasiones.

¿Han hecho las compañías tecnológicas algo que deba merecer una respuesta decidida de las autoridades anti-monopolio? Es posible que no, o no de manera generalizada. Todos recordamos momentos en los que sí se han identificado actitudes anti-competitivas en determinadas compañías, pero… ¿serían realmente merecedoras de una decisión tan drástica como obligar a una compañía a escindirse en distintas áreas de actividad? ¿Pero qué sentido tiene disponer de una herramienta para sanear el panorama competitivo y mejorar la situación de los usuarios, si esta herramienta se convierte en algo que prácticamente nunca llega a ser utilizado, y si podríamos pensar que su uso sí podría influir positivamente de cara a generar una situación competitivamente mejorada? ¿Ha llevado la tecnología a la necesidad de repensar las reglas del capitalismo tal y como las conocemos? En un capitalismo exclusivamente orientado al resultado financiero, en el que lo que cuenta es estrictamente el beneficio, la responsabilidad social corporativa que debería incentivar una creación de valor con una base más amplia y sostenible se convierte en un elemento folclórico, en una frase vacía para ponerla en la memoria corporativa, en un “compromiso de que lo reciclamos todo” cuando en realidad, lo enviamos a vete tú a saber dónde para que otro haga vete tú a saber qué. ¿Deberíamos reconsiderar el concepto de creación de valor, para darle un significado completamente distinto, incluyendo conceptos más allá del lucro del emprendedor o innovador, que de verdad permitan optimizar los frutos de la innovación de una manera más adecuada?

 

IMAGE: Nerthuz - 123RFHace un año, escribí una entrada titulada “La industria del automóvil en su laberinto“, tratando de plasmar la desazón que me generaba acudir al North American International Auto Show (NAIAS) y comprobar cómo los temas de los que hablaba la industria cuando intentaba “hacerse la moderna” estaban, un año más, prácticamente ausentes e ignorados en un show caracterizado por las booth babes, la potencia de los motores de explosión, los SUV monstruosos y la exhibición de más y más caballos de potencia.

Un año después, no he podido volver a NAIAS para comprobarlo por mí mismo – posiblemente debido del artículo anteriormente citado, que entre otras cosas surgía de un enfrentamiento en Twitter con un directivo de la marca que pagaba mi viaje – pero los que sí han estado siguen comprobando lo mismo que yo: que NAIAS es un bajón de expectativas fortísimo viniendo del CES de Las Vegas, que la presencia de las marcas de automóviles en CES no tiene absolutamente nada que ver con la de las mismas marcas en NAIAS, que lo de mirar al futuro se queda en la simple estética, y que lo que hacen es mostrar y rendir culto a los mismos modelos salvajes, enormes y que devoran litros y litros de gasolina que adoraban los años anteriores.

Una industria de petrol-heads que sigue rindiendo culto a los mismos símbolos, y que aísla las iniciativas de renovación en una exposición satélite, el Automobili-D, separada de la principal, “no vaya a ser que se nos pegue algo”.

Algo cambia con respecto al año anterior, sin embargo: la industria se ha dado cuenta de que sus calendarios no tenían ningún tipo de sentido, y se ha puesto a gastar millones como loca – hasta noventa mil, según la estimación de Reuters – para electrificar su oferta. Ford ha anunciado una inversión de once mil millones de dólares para poner dieciséis modelos completamente eléctricos y veinticuatro híbridos enchufables en su gama en cinco años, con el primero llegando en el año 2020. El movimiento de Bill Ford para situarse en este ámbito es una obvia respuesta al movimiento anterior de la GM de Mary Barra, que el pasado octubre anunció la pronta salida al mercado de dos modelos eléctricos como parte de una iniciativa que la llevará a tener veinte vehículos completamente eléctricos antes de 2023, tanto de baterías como de célula de hidrógeno, y que hace pocos días anunció un modelo completamente autónomo sin pedales ni volante. Las compañías automovilísticas siguen hablando de sus visiones grandilocuentes y de la necesidad de reconquistar las calles, pero mantienen una total desinformación acerca de sus calendarios para este tipo de visiones, lo que las convierte, a efectos de realidad, en poco menos que ciencia-ficción.

De hecho, todo indica que algunas de las compañías están desesperándose para disponer de modelos eléctricos en su gama porque saben que los necesitarán para cumplir los muy agresivos requerimientos del gobierno chino para estar presente en su enorme mercado – toda marca que importe más de treinta mil vehículos al gigante asiático tendrá que asegurar que al menos el 10% de ellos son eléctricos, híbridos enchufables o de célula de hidrógeno antes de 2019, porcentaje que se elevará al 12% en 2020 – lo que convierte la reacción en prácticamente un movimiento defensivo. De hecho, la Volkswagen del dieselgate, con una fortísima presencia en el mercado chino, ha anunciado que su inversión se duplicará hasta los cuarenta mil millones de dólares.

Un año después de mi articulo, la industria del automóvil sigue intentando aparentar que está a la altura de la tecnología – hasta Ferrari pretende lanzar un modelo eléctrico para demostrar que las prestaciones obtenidas por Tesla están a su alcance – pero jugando con los mismos trucos: los híbridos enchufables como auténtica trampa para convencer a usuarios poco informados y que se sientan bien con vehículos que en muchos casos contaminan más que sus equivalentes de combustión, y plazos poco definidos para seguir prolongando la vida de la tecnología que siguen considerando central, su auténtica razón de ser. No, esto no es una cuestión de prisas. Tus planes no pueden – o no deberían – depender de las restricciones impuestas por uno u otro mercado. Esta reconversión debería provenir de un convencimiento real, de un verdadero cambio de mentalidad, de la constatación de que los vehículos de combustibles fósiles están destrozando el planeta, y deberían, en total puridad y en virtud de las evidencias que tenemos, ser prohibidos. Seguimos viendo una industria que no cambia porque crea que debe cambiar, sino porque la obligan. Lo dije en su momento, y lo mantengo: a este paso, terminaremos poniendo a las marcas clásicas de automoción en el mismo lugar que ocupan en nuestras mentes las empresas tabaqueras.

 

Open Banking APIx

En octubre de 2015, el Parlamento Europeo adoptó una versión revisada de la Payment Services Directive, PSD2, destinada a promover el uso y desarrollo de servicios de pagos innovadores y móviles a través de la apertura de los servicios bancarios. Contrariamente a lo que suele ocurrir con las directivas comunitarias, que suelen dejar un amplio espacio a los países miembros para su implementación, PSD2 no lo hace: es sumamente estricta en su hoja de ruta, y ahora es cuando empezamos a ver sus primeros frutos.

El Reino Unido fue uno de los países que, de una manera más clara, vio en PSD2 una mayor fuente de oportunidades. Con numerosas compañías en vanguardia del fintech desde sus inicios, las autoridades del país vieron la posibilidad de utilizar la regulación como una fuente de dinamismo para el mercado: en agosto de 2016, la Competitions and Market Authority (CMA) del Reino Unido publicó una directiva en la que requería a los nueve bancos más grandes del Reino Unido que permitieran que las startups con licencia accedieran directamente a sus datos si el usuario así lo requería, hasta el nivel de transacciones en cuenta, y estableció la fecha del 13 de enero de 2018 como límite para su aplicación, convirtiéndose así en el primer país en llevar a la práctica este concepto. De hecho, el interés del país es suficientemente importante como para mantener sus planes de manera completamente independiente al desarrollo del Brexit.

Podemos ver explicaciones sobre Open Banking en diversos formatos, desde manejables infografías, hasta completos artículos al respecto o informes de consultoras. Lo que tenemos que saber, básicamente, es que la nueva directiva cambia el modelo de actuación de la banca tradicional y la obliga a presentar sus datos en forma de APIs (interfaces de programación de aplicaciones) estandarizadas y accesibles para cualquier actor aprobado para ello que lo demande en virtud de una petición de sus clientes. Como tal, Open Banking no es una aplicación, ni un servicio como tal, sino una forma de facilitar el intercambio de datos a requerimiento del usuario. proporcionando a este un nivel completo de control sobre esos datos: los bancos dejan de tener esa gestión como un derecho exclusivo, y se ven obligados a incorporar APIs para permitir que cualquier actor autorizado como tal pueda acceder a los datos de sus usuarios. A partir de aquí, lo que queramos.

¿Qué ha ocurrido a partir del día 13 con la llegada de la fecha límite y la aplicación de Open Banking en el Reino Unido? De buenas a primeras, prácticamente nada. El regulador ha emitido cartas a los principales bancos con instrucciones al respecto, algunos han pedido prórrogas para terminar de adaptarse, y por el momento, no se ha visto mucho más. Sin embargo, aunque los comienzos sean lentos, haya pocas noticias al respecto, muchos usuarios no tengan ni idea de qué estamos hablando, y las compañías que quieran participar deban registrarse y ser homologadas para ello, un proceso no especialmente sencillo, estamos hablando del mayor cambio que hemos presenciado en la actividad bancaria desde prácticamente el inicio de los tiempos, y de algo que dará lugar a un ecosistema completamente diferente.

De entrada, la idea es dar entrada en la gestión de nuestro dinero y nuestra actividad económica a un número de actores mucho más elevado siempre que cumplan unos requisitos determinados y que exista un control del usuario. Esto puede ser una vía de entrada, obviamente, para muchas nuevas compañías dentro del mundo fintech, pero también para los grandes actores del mundo online, como Google o Facebook, con todo lo que ello conlleva. Con las nuevas reglas, cualquier entidad aprobada podrá no solo gestionar pagos o transacciones sin necesidad de llegar a acuerdos con los bancos o sin hacer scrapping de los datos del usuario a partir de su usuario y contraseña, como ocurría hasta el momento. La fase inicial tiene un ámbito limitado e incorpora únicamente datos de la cuenta corriente: las tarjetas de crédito y otras cuentas de pagos serán agregadas a lo largo de los próximos dos años, en una fase compleja en la que se prevén problemas de diversos tipos, mala prensa, artículos interesados hablando de terribles peligros, bancos tradicionales intentando convencernos de que “eso ya lo hacían ellos”, o incluso posibles ofuscaciones interesadas para intentar evitar la percepción de una transición sencilla.

Pese a la escasa publicidad y la aún relativamente baja incidencia de la llegada de la fecha límite, no nos confundamos: estamos ante la innovación que dará forma al nuevo ecosistema bancario, a la posibilidad de que confiemos en otros actores innovadores o en software inteligente para administrar nuestro dinero. Si los bancos tradicionales quieren ser algo más que simples contenedores comoditizados, tendrán que mejorar su propuesta de valor y, sobre todo, convertirse en atractivos para unos clientes que, a día de hoy, por lo general, no los tienen en la mejor de sus estimas. A todos los efectos, en banca, estamos comenzando una nueva era.