Tecnologías que van a cambiar el mundo - Actualidad AseguradoraDavid Ramos me llamó para hacerme una entrevista telefónica larga sobre el impacto de la tecnología en la industria aseguradora, y ayer me envió el resultado, una página doble publicada bajo el título “Tecnologías que van a cambiar el mundo” (pdf) en la revista Actualidad Aseguradora.

Hablamos sobre las distintas tecnologías que v an a tener una influencia en el futuro del sector asegurador, comenzando por el machine learning como auténtica nueva frontera, como cambio dimensional que diferenciará que compañías siguen en el mercado y cuales serán incapaces de competir y, por tanto, cerrarán. En una industria tan profundamente estadística y tan vinculada al concepto de riesgo como la aseguradora, el machine learning es la auténtica definición del ser o no ser, y las compañías que no estén ya investigando y trabajando en el tema con la adecuada intensidad, pronto no serán capaces de ser competitivas (no, la frase destacada en el artículo y en algún tweet no es mía, es de Sundar Pichai, CEO de Google, como de hecho comento en el artículo… yo, obviamente, solo la citaba!)

Además del machine learning, hablar de la cadena de bloques y de su trascendencia para la industria aseguradora, con su elevado componente actuarial y de registro fidedigno de contratos, cláusulas y acontecimientos debería ser profundamente obvio a estas alturas: TODA transacción, póliza y circunstancia en la industria del seguro estará anclado en una cadena de bloques, del mismo modo que todos los contratos serán smart contracts, con una dirección en la que verificar todo su clausulado y supuestos de manera rápida y operativa, eliminando ese proceso de peritaje manual y en muchos casos subjetivo que determina si esa circunstancia se incluye o no. La innovación que trae la cadena de bloques a la industria aseguradora resultará fundamental, aunque por otro lado, menos vistosa como tal: la época en la que simplemente pronunciar la palabra “blockchain” aseguraba la atención tocará a su fin, y la cadena de bloques será simplemente una tecnología de base, con un interés meramente técnico, que daremos como supuesta.

Otros temas que salieron en la conversación merecen indudablemente atención: la internet de las cosas y la sensorización progresiva de todo que afectará a la industria en todas sus facetas, desde el seguro de propiedad o de responsabilidad civil, hasta el de salud, que pasará a jugar un papel progresivamente más vinculado a la salud preventiva gracias a los wearables y a otras herramientas sencillas de monitorización. O enernet, la internet de la energía, que revolucionará la manera en la que generamos la energía y se convertirá en la fuente de energía barata o gratuita para todos, afectando lógicamente toda la cadena de valor de todas las industrias. O cuestiones más regulatorias e inmediatas, como PSD2, que cambiarán la forma de entender la industria, facilitarán la competencia, y obligarán a una coexistencia entre las compañías tradicionales y las llamadas insurtech, en muchas ocasiones más ágiles y atentas a las oportunidades que la tecnología genera en la industria aseguradora. No, la industria no está inactiva ni pasiva ante todos estos cambios… pero en mi opinión, un poco de alegría y de curiosidad en los niveles directivos más altos que de verdad llevase a una genuina transformación digital y a sacudirse las metodologías de toda la vida no estaría nada de más.

Si con la entrevista consigo que algunos en la industria se planteen la importancia de estos temas, prueba superada! ;-)

 

IMAGE: Nebuto - 123RFDesde Sage me pidieron un artículo sobre transformación digital en el entorno PYME, para publicarlo en su página, Sage Advice. El resultado es “Transformando las pymes: carta abierta a los directivos españoles“, un texto en el que pretendo reforzar la idea de que la transformación digital no es algo exclusivo de las grandes compañías ni que suponga necesariamente cuantiosas inversiones en consultoría o tecnología, sino algo que comienza con la transformación personal y que conlleva, fundamentalmente, liderazgo y gestión del cambio.

La transformación digital no es un fenómeno tecnológico. La tecnología supone, por supuesto, un elemento fundamental, pero la verdadera transformación, el auténtico elemento diferencial que lleva a que una compañía sea capaz de acometer el proceso con un razonable nivel de éxito, es la transformación personal. Una compañía no se transforma si sus fundadores o directivos más importantes no lo hacen, y hablo del ámbito personal: liderar una transformación digital implica haberse digitalizado en lo personal, creer firmemente en las ventajas de la digitalización. En las PYMES, esta conexión es, si cabe, aún más importante: observando el nivel de digitalización del fundador o principal directivo de una PYME se puede deducir rápidamente el nivel de digitalización de su compañía, o las posibilidades que tiene de transformarse con éxito.

La segunda cuestión es fundamentalmente de enfoque: pese a que lo habitual en las PYMES es encontrar situaciones de muchos menos recursos, de economía de supervivencia o de menor flexibilidad y tolerancia a los errores (sí, la mítica flexibilidad de las PYMES es eso, un mito… la flexibilidad la consigue el segmento PYME en agregado, no las PYMES individualmente, que en realidad se dedican a nacer y a morir constantemente), la transformación digital no puede enfocarse como una cuestión de costes, sino como una tarea de adaptación de la propuesta de valor al cliente. Ese razonamiento no resulta obvio: durante generaciones, hemos entendido la inversión en tecnología como automatización y reducción de costes, pero la transformación digital solo ha sido genuinamente posible cuando la tecnología ha pasado a ofrecernos otras posibilidades que van mucho más allá. Ahora, un ordenador o un algoritmo no son simplemente formas de “hacer lo mismo pero más rápido o con menos errores”, son mucho más, y quien no lo entienda así, no logrará una transformación digital exitosa.

La siguiente fase de la transformación digital son los procesos internos: muchísimo que hacer, y de nuevo, un importantísimo componente de transformación personal. Las compañías no dejan de utilizar papel o adoptan procesos digitales de manera espontánea, porque los seres humanos tenemos una importante tendencia a la inercia y al isomorfismo. Por tanto, para lograr cambios reales, hay que tomar decisiones reales, drásticas, importantes, que provengan del ejemplo y del compromiso personal. El papel desaparece cuando las decisiones adecuadas lo convierten en incómodo, y cuando las personas dejan de utilizarlo por convicción, porque se han dado cuenta de las ventajas de no hacerlo. Del mismo modo, el compromiso debe alcanzar otras cuestiones: fórmulas de trabajo y conciliación flexibles, independizarse de factores como la localización o la presencia física mediante el desarrollo de una cultura adecuada para ello, mayor democratización de la información, ganar en transparencia, experimentar… con lo que ha cambiado la tecnología, si seguimos trabajando igual, es que no hemos transformado nada. 

Finalmente, es preciso reflexionar sobre el modelo de negocio. El propósito de la transformación interna no es estético ni ergonómico, aunque pueda tener esos componentes: es la orientación de la compañía al dato, a procesos que permitan la producción estable y constante de información que pueda ser analizada y utilizada. La transformación digital puede monitorizarse mediante una métrica del tipo machine learning readiness: ¿cómo de preparada estaría tu compañía si quisiese adoptar herramientas de machine learning para optimizar o redefinir sus procesos de negocio? Los procesos de definición de objetivos, recolección y transformación de datos previos a la obtención de modelos evaluables y predicciones eficientes son tan pesados y laboriosos, que nuestro nivel de preparación para ello puede ser utilizado como un buen proxy de nuestro nivel de transformación digital.

No lo olvidemos: el objetivo final de la transformación digital es ese: cambiar nuestro modelo de negocio para adaptarlo al tiempo que nos ha tocado vivir. Y en que las PYMES, con las herramientas, asesoría y ayuda adecuada, consigan hacerlo, nos jugamos un montón.

 

OscarLa ceremonia de entrega de los Oscars, recién concluida hace unos instantes, me ha dejado un sabor de boca muy interesante: los galardones han ido cayendo, uno detrás de otro, siguiendo las predicciones publicadas anteriormente por los algoritmos que, el pasado 1 de marzo, publicó BigML, la compañía de machine learning en la que soy asesor estratégico. Y cuando digo “uno detrás de otro”, realmente me refiero a eso: un pleno. Absoluto. Los candidatos de todas y cada una de las seis grandes categorías que  el algoritmo señaló como favoritos (mejor película, mejor director, mejor actor, mejor actriz, mejor actor secundario y mejor actriz secundaria) han terminado obteniendo el correspondiente galardón.

¿Magia? Suerte? No, simplemente machine learning. Es lo que tiene trabajar con la optimización de un algoritmo. Como ingredientes, las características de la película (duración, presupuesto, género, etc.), su evaluación en IMDB, y sus nominaciones en una serie de premios anteriores (Globos de Oro, BAFTA, Screen Actors Guild, y Critics Choice), aplicados además a la misma base de datos histórica desde el 2000 al 2017 utilizada en las predicciones del año anterior. En total, algo más de cien datos por película. Este año, se eliminaron del cálculo las puntuaciones otorgadas por los usuarios en IMDB, que el año anterior no resultaron ser importantes y que resultan complejas de adquirir. Finalmente, se evaluaron los resultados de las predicciones aplicándolos a los de las películas entre 2013 y 2016, con muy buenos resultados: los modelos fueron capaces de predecir los ganadores de cada categoría en durante cuatro años consecutivos con muy pocos errores.

Cuando ves un resultado así, y además, entiendes cómo se ha obtenido, tienes una extraña sensación de predictibilidad, entre el “qué lógico es todo” y el “ya lo decía yo”. En realidad, se trata simplemente de aplicar la metodología adecuada a los datos adecuados: el año pasado, ensembles. Este año, deepnets, redes neuronales profundas. Un modelo por categoría premiada, que tarda alrededor de media hora en ser entrenado probando docenas de redes diferentes en segundo plano, y que termina generando la construcción de un clasificador de alto rendimiento. Obviamente, podríamos encontrarnos una categoría en la que, por la razón que fuese, surgiese un ganador que rompiese con todas las predicciones, que ganase contra todo pronóstico… pero es menos probable cuanto más y mejores datos vas teniendo para educar tus algoritmos.

Esto no es más que un ejercicio. Muchas empresas lo hacen: todos sabemos que el objetivo de IBM, el de Google o el de la Universidad de Carnegie Mellon cuando crean algoritmos capaces de ganar al ajedrez, al Jeopardy, al Go o al poker no está en ganar esos juegos, sino en ser capaz de demostrar las posibilidades de su tecnología. El resultado está, muchas veces, sujeto al sensacionalismo o al riesgo de quedarse en lo meramente anecdótico, según cómo se cuente y cómo se lea. Pero como ejercicio, va un poco más allá de lo meramente anecdótico: puede servir para que algunos en situación de tomar decisiones empiecen a entender el tipo de cosas que se pueden hacer con herramientas como el machine learning, y las posibles aplicaciones que pueden tener a sus compañías. Repetimos: no es magia: una parte importantísima del trabajo está en la definición del objetivo, en obtener los datos adecuados, en su transformación y en todos los aspectos que hay que llevar a cabo antes de obtener un modelo y evaluarlo. Las empresas reales no suelen ser así: los datos no suelen ser fácil de encontrar, ni estar en el formato adecuado, ni poder importarse a una base de datos de manera inmediata y sencilla, ni siquiera estar completos. En muchas ocasiones, ni siquiera el objetivo está adecuadamente definido. No, no es magia, es trabajo. Alguien tiene que definirlo adecuadamente, hacerlo, y contar para ello con las herramientas adecuadas que combinen capacidad y facilidad para la interpretación. Pero cuando se tienen esos datos y esas herramientas, los resultados obtenidos tienen sentido, y pueden servir para que algunos entiendan de qué estamos hablando. Los Oscars de 2018 los ha ganado… el machine learning.

 

OscarLa ceremonia de entrega de los Oscars, recién concluida hace unos instantes, me ha dejado un sabor de boca muy interesante: los galardones han ido cayendo, uno detrás de otro, siguiendo las predicciones publicadas anteriormente por los algoritmos que, el pasado 1 de marzo, publicó BigML, la compañía de machine learning en la que soy asesor estratégico. Y cuando digo “uno detrás de otro”, realmente me refiero a eso: un pleno. Absoluto. Los candidatos de todas y cada una de las seis grandes categorías que  el algoritmo señaló como favoritos (mejor película, mejor director, mejor actor, mejor actriz, mejor actor secundario y mejor actriz secundaria) han terminado obteniendo el correspondiente galardón.

¿Magia? Suerte? No, simplemente machine learning. Es lo que tiene trabajar con la optimización de un algoritmo. Como ingredientes, las características de la película (duración, presupuesto, género, etc.), su evaluación en IMDB, y sus nominaciones en una serie de premios anteriores (Globos de Oro, BAFTA, Screen Actors Guild, y Critics Choice), aplicados además a la misma base de datos histórica desde el 2000 al 2017 utilizada en las predicciones del año anterior. En total, algo más de cien datos por película. Este año, se eliminaron del cálculo las puntuaciones otorgadas por los usuarios en IMDB, que el año anterior no resultaron ser importantes y que resultan complejas de adquirir. Finalmente, se evaluaron los resultados de las predicciones aplicándolos a los de las películas entre 2013 y 2016, con muy buenos resultados: los modelos fueron capaces de predecir los ganadores de cada categoría en durante cuatro años consecutivos con muy pocos errores.

Cuando ves un resultado así, y además, entiendes cómo se ha obtenido, tienes una extraña sensación de predictibilidad, entre el “qué lógico es todo” y el “ya lo decía yo”. En realidad, se trata simplemente de aplicar la metodología adecuada a los datos adecuados: el año pasado, ensembles. Este año, deepnets, redes neuronales profundas. Un modelo por categoría premiada, que tarda alrededor de media hora en ser entrenado probando docenas de redes diferentes en segundo plano, y que termina generando la construcción de un clasificador de alto rendimiento. Obviamente, podríamos encontrarnos una categoría en la que, por la razón que fuese, surgiese un ganador que rompiese con todas las predicciones, que ganase contra todo pronóstico… pero es menos probable cuanto más y mejores datos vas teniendo para educar tus algoritmos.

Esto no es más que un ejercicio. Muchas empresas lo hacen: todos sabemos que el objetivo de IBM, el de Google o el de la Universidad de Carnegie Mellon cuando crean algoritmos capaces de ganar al ajedrez, al Jeopardy, al Go o al poker no está en ganar esos juegos, sino en ser capaz de demostrar las posibilidades de su tecnología. El resultado está, muchas veces, sujeto al sensacionalismo o al riesgo de quedarse en lo meramente anecdótico, según cómo se cuente y cómo se lea. Pero como ejercicio, va un poco más allá de lo meramente anecdótico: puede servir para que algunos en situación de tomar decisiones empiecen a entender el tipo de cosas que se pueden hacer con herramientas como el machine learning, y las posibles aplicaciones que pueden tener a sus compañías. Repetimos: no es magia: una parte importantísima del trabajo está en la definición del objetivo, en obtener los datos adecuados, en su transformación y en todos los aspectos que hay que llevar a cabo antes de obtener un modelo y evaluarlo. Las empresas reales no suelen ser así: los datos no suelen ser fácil de encontrar, ni estar en el formato adecuado, ni poder importarse a una base de datos de manera inmediata y sencilla, ni siquiera estar completos. En muchas ocasiones, ni siquiera el objetivo está adecuadamente definido. No, no es magia, es trabajo. Alguien tiene que definirlo adecuadamente, hacerlo, y contar para ello con las herramientas adecuadas que combinen capacidad y facilidad para la interpretación. Pero cuando se tienen esos datos y esas herramientas, los resultados obtenidos tienen sentido, y pueden servir para que algunos entiendan de qué estamos hablando. Los Oscars de 2018 los ha ganado… el machine learning.

 

Google ClipsConfieso que este tema me tiene fascinado cuanto más leo sobre él: Google Clips es una cámara wearable, es decir, pensada no para sacarla del bolsillo y tomar un a fotografía – para esto ya está el smartphone – sino para ser llevada enganchada en algún lugar de la ropa o dejarla en algún punto concreto, y que vaya tomando fotografías animadas de hasta quince segundos de manera automática, como pequeños GIFs o live photos. Lógicamente, el dispositivo no se limita a ir tomando imágenes a intervalos prefijados, sino que utiliza algoritmos de machine learning para entender en qué momentos debe tomar esas fotografías, tratando de generar así un relato completo de la persona que la lleva encima. Según la compañía, “Clips busca imágenes estables y claras de personas, buenas expresiones faciales como alegría, reconoce también perros y gatos, y tiende a tener preferencia por cuando hay algún movimiento en la escena”. Es el concepto del lifestreaming, la vida que transcurre ante la cámara y es capturada por esta. No requiere una conexión de datos, ni una cuenta: simplemente toma imágenes en alta resolución, y las monta en un vídeo que puedes ver posteriormente en tu smartphone.

Algoritmos similares los hemos podido ver aplicados a otras cuestiones, como cámaras de seguridad inteligentes capaces de tomar imágenes únicamente cuando detectan movimiento o cuando capturan determinadas imágenes que le hemos solicitado previamente, pero no están diseñadas para ser llevadas encima, sino para ser ubicadas de manera razonablemente permanente en una localización determinada.

El producto puede ser adquirido en los Estados Unidos ($249 con envío gratuito en la tienda Google, en la que tienes que tener registrada una dirección en el país) desde el pasado 27 de febrero, y ya ha sido analizado por algunas publicaciones. El anuncio de su comercialización el pasado octubre hizo bajar el precio de las acciones de GoPro y generó bastantes comentarios, la mayoría en el sentido de considerarla “the new candid camera, la nueva “cámara oculta”, aunque en realidad no esté oculta y posea un piloto que permite saber a quienes están ante ella cuándo está tomando imágenes, aunque es más que posible que termines olvidándote completamente de ella. La cámara no es especialmente pequeña ni especialmente discreta, pero sin duda, evoca desde episodios de Black Mirror hasta libros o su correspondiente película dedicados a explorar las posibles consecuencias de un mundo en permanente retransmisión, entregado al concepto de transparencia total.

A estas alturas es perfectamente posible que el producto sea simplemente un experimento, una de esas líneas no exitosas que la compañía termina eliminando discretamente en alguna de sus Spring cleaning, o una forma de demostrar cómo de potentes son ya sus algoritmos de machine learning, pero me parece interesante reflexionar a qué tipo de mundo nos llevaría un producto así en caso de llegar a popularizarse, o qué puede pretender Google con ello. ¿Cómo te comportarías ante una persona que llevase colgada en su bolsillo una cámara como ésta, o que situase esa cámara apoyada en su clipstand en un punto que te incluyese? La popularización del smartphone con cámara ya ha hecho que muchos se planteen que viven en un mundo en el que todo el mundo lleva una cámara en el bolsillo, con todo lo que ellos conlleva: todo lo que hagas puede ser inmortalizado, capturado y compartido, sin que nadie se detenga a analizar las posibles consecuencias o la normativa legal que rodea a la captación o difusión de esas imágenes. ¿Qué ocurre cuando esa cámara, en lugar de simplemente ir alojada en el bolsillo y precisar de un gesto y una voluntariedad para capturar imágenes, vaya permanentemente encendida, preparada para hacer su trabajo, y provista de algoritmos capaces de decidir qué imágenes vale la pena capturar y cuáles no? ¿Nos acostumbraríamos a algo así y a sus consecuencias del mismo modo que hemos aceptado como inevitable la cámara del smartphone?

La vida es eso que transcurre mientras hacemos otras cosas. Revivirla como tal no es posible, e intentarlo mediante el recurso a fotografías o vídeos implica, en muchas ocasiones, hacer un esfuerzo consciente por capturarla, por obtener imágenes o vídeos que podamos utilizar posteriormente para evocar esos recuerdos, lo que habitualmente puede implicar vivirla de una manera que muchos consideran de inferior calidad: alguien que en lugar de centrarse en el momento que debería estar viviendo, se está preocupando por registrarlo en un dispositivo tiende a provocarnos reacciones negativas, aunque en muchos casos esas personas afirmen que su pasión es la fotografía o el vídeo y que disfrutan más así, entregados a ella. ¿Qué pasa cuando esa captación de imágenes para su evocación posterior se lleva a cabo de manera rutinaria, sin que el usuario tenga que hacer nada, y empezamos a aceptarlo simplemente como un hecho más, una característica de la vida cotidiana?

Es pronto para saber si un dispositivo de este tipo triunfará o no, si comenzaremos a verlo colgando del bolsillo de determinadas personas, si dará lugar a problemas o a situaciones imprevisibles derivadas de su protocolo de uso, si afectará a las normas de educación, o si el concepto será replicado por otros fabricantes para diseñar dispositivos mucho más pequeños o incluso intencionadamente ocultos, disimulados, difíciles de detectar. Pero que la tecnología permita crearlos es una de esas situaciones que nos puede llevar a plantearnos muchas cosas, a imaginarnos cómo podría cambiar nuestra vida si todos los momentos que vivimos en ella pudiesen estar siendo capturados no ya por una cámara en manos de un amigo o un familiar, sino por todas las que llevan aquellos que se cruzan con nosotros. ¿Qué cambios determinaría algo así en la sociedad en la que vivimos? ¿Podría un producto así y su eventual popularización determinar que viviésemos en un entorno en el que esas cámaras estuviesen presentes de manera ubicua, en el que lo normal cuando vas a casa de alguien es que haya varias cámaras apuntándote durante el aperitivo o la cena, para después compartir contigo un vídeo en modo “mira qué bien nos lo pasamos”? ¿Nos acostumbraremos a algo así y pasaremos a verlo com algo normal? ¿Cuántas cámaras a la vez captarían un momento como una boda, o cualquier otro que se considere adecuado para ser evocado posteriormente, y además, sin que las personas que las llevan encima siquiera se dieran cuenta en el momento?

Pensar en esa idea de “vida televisada” o en modo “captura permanente” requiere un esfuerzo de proyección, de imaginar las posibles consecuencias y los cambios que acarrearía en la forma que tenemos de entender muchas cosas. Muy pronto, posiblemente, para un producto recién lanzado que perfectamente podría quedar como una rareza, un experimento más, o incluso como una extravagancia o algo que genere rechazo. No pretendo hoy elucubrar sobre la posible popularización del producto, sino más bien plantearme qué ocurriría si lo tuviera. Después de todo, no deja de ser algo que hasta hace poco no era fácilmente planteable y que la tecnología ha convertido en sencillo, aparentemente además con buenos resultados. Y para eso, para especular sobre la tecnología y sus posibles efectos, es para lo que estamos aquí! :-)