Los datos y la fe - LUCAMi segunda colaboración para el blog corporativo de LUCA, la unidad de Big Data e Inteligencia Artificial de Telefonica (aquí la primera) se titula “Los datos y la fe” (pdf), e intenta ahondar en el concepto de revolución frente a evolución que supone el machine learning y la idea de tratar a una máquina que se encuentra introducida en nuestra rutina diaria desde hace décadas, el ordenador, no tanto como una simple automatización de tareas, sino como algo capaz de captar datos y derivar sus propias reglas de funcionamiento a partir de ellos. 

Lograr extraer una ventaja competitiva de una revolución como el machine learning, con efectos comparables a lo que en su momento supuso el desarrollo y adopción masiva de internet, requiere por un lado directivos con el perfil adecuado convencidos del papel de la ciencia en el management de las compañías – un aspecto en el que incidí en mi primer artículo de la serie – y, por otro, de un convencimiento pleno de la necesidad de dotar a esas compañías de una cultura de datos que permita reorientar la totalidad de los productos y servicios de la compañía hacia ellos, como anteriormente lo hicimos con respecto a internet. Las mismas compañías que en los años ’90 creían que internet no supondría un cambio en su forma de hacer las cosas están ahora, un par de décadas después, completamente orientadas a la red, o si no llevaron a cabo ese cambio de mentalidad, muy probablemente hayan desaparecido. Ahora, las compañías deben tomar la decisión de formar a la totalidad de su personal en una tecnología que va a suponer un cambio fortísimo en la manera de entender el mundo en las próximas décadas, la que marcará la próxima gran discontinuidad entre los que la entienden y la saben aplicar y los que no.

Estamos aún, obviamente, en fases experimentales. Aún veremos en muchas ocasiones algoritmos capaces de aprender de los datos de maneras erróneas, de heredar sesgos o de crearlos en función de patrones que no sabíamos que estaban ahí. Si históricamente hemos incorporado menos mujeres que hombres a nuestras compañías, es posible que un algoritmo diseñado para optimizar procesos de reclutamiento alimentado con nuestro histórico de datos tienda, sin la supervisión adecuada, a discriminar a las mujeres en esos procesos, con todo lo que ello podría conllevar de pérdida de oportunidades para la atracción de talento. La adopción tecnológica tiene este comportamiento que requiere de procesos de ensayo y error, del desarrollo de una cultura que posibilite entender los mecanismos que conforman el aprendizaje de una máquina, la generación de algoritmos a partir de los datos, mediante procesos relativamente toscos al principio, pero que pueden evolucionar hasta mostrar patrones intrínsecamente superiores a los exhibidos por los tomadores de decisiones humanos.

No hablamos simplemente de hacer o plantear Machine Learning: hablamos de automatizarlo, de convertirlo en una parte integrante de nuestros procesos empresariales. Entender ese tipo de procesos no es simplemente el fruto de un proceso de reflexión o de aprendizaje individual: requiere la fe necesaria para trasformar las compañías y sus procesos de negocio – que en muchas ocasiones no mostraban signos especialmente preocupantes de ningún tipo de problema – para adaptarlos a las posibilidades que ofrece el machine learning. Las resistencias serán importantes, y van a requerir no solo argumentos, sino la capacidad de rodearse de personas que entiendan ese cambio, que crean en él, y que estén dispuestos a invertir en el proselitismo necesario para convencer a otros. Decididamente, no una tarea sencilla.

 

El directivo analitico - LUCADesde LUCA, la unidad de Big Data e Inteligencia Artificial de Telefonica, me pidieron un artículo para su blog corporativo sobre los nuevos entornos que precisan, cada vez más, tomar decisiones inteligentes a partir de los datos, y la importancia del análisis de esos datos de cara al desarrollo de un nuevo perfil de directivo. Una tendencia creciente en las compañías modernas que se encuadra en desmitificar el llamado gut feeling, esa supuesta “intuición” de los directivos que, cada día más, prueba que por cada una de esas decisiones acertadas hay, en realidad, un número similar o en ocasiones mayor de decisiones erróneas en contextos similares. 

Mi artículo, titulado “El directivo analítico” (pdf), trata de exponer cómo la llegada del machine learning y la analítica avanzada de datos al mundo directivo nos acerca cada vez más a entornos con un mayor nivel de profesionalización, más científicos y menos dados a sacralizar “la experiencia por la experiencia”, en beneficio de unas herramientas analíticas adecuadas y de unos procedimientos más rigurosos. El management, como ocurre en todas las disciplinas, está destinado a ser cada vez menos “magia” y más ciencia. Para las compañías, entender el funcionamiento de los proyectos de machine learning, sus requerimientos y los pasos que hay que dar para poder alimentar los algoritmos adecuados con datos resulta cada vez más importante – sí, todos los directivos piensan que “tienen muchísimos datos” y que “todos ellos pueden ser utilizados inmediatamente”, pero la realidad es otra muy diferente y mucho más compleja. Sabes qué podemos pedir a un algoritmo, qué posibilidades reales tiene de generar resultados tangibles y qué tiempos de desarrollo cabe esperar en un proyecto de este tipo es cada día más importante para las compañías.

A lo largo de la próxima década, como bien comentan Erik Brynjolfsson y Andrew McAfee en ese gran artículo titulado The business of artificial intelligence, la inteligencia artificial va a cambiar la forma de entender el management hasta el punto de que “aunque la inteligencia artificial no sustituya a los directivos, los directivos que utilicen inteligencia artificial sí sustituyan a los que no lo hacen.” Si como directivo sigues viendo el desarrollo de machine learning e inteligencia artificial desde lejos, como quien ve una película de ciencia-ficción, deberías saber que lo que haces, sea lo que sea, será en algún momento mejorado por otros directivos que sí han aprendido a aprovechar sus posibilidades. Entender el funcionamiento de este tipo de proyectos, su dimensionamiento, sus diferentes fases y lo que se les puede pedir de manera realista se está convirtiendo, tanto a nivel corporativo como personal, en una necesidad cada vez más acuciante. 

 

Terra logo

Carlos Ribagorda, de Bez, me llamó para preguntarme mis impresiones sobre el final de Terra, la que fue en su momento la joya de la corona de Telefonica en la web, y un proyecto al que la compañía puso fin el pasado viernes tras unos últimos años penando en la más absoluta irrelevancia. El artículo se titula “La historia no contada del fin de Terra” (pdf).

La historia de Terra la viví de manera indirecta a través de varios de sus protagonistas, hasta el punto de que, a principios de la pasada década, llegamos a utilizarla en un curso electivo en IE Business School que resultó fantásticamente bien en el que tratábamos de transmitir a los alumnos una visión completa y multidisciplinar de la actividad de las compañías en la web en sus diferentes áreas a través del paso por la clase de sus principales directivos.

Los problemas de Terra fueron muchos, y fundamentalmente derivados de la falta de comprensión de su actividad por parte de su compañía matriz, la Telefonica del gran destructor de valor, César Alierta. Terra se creó en un momento indudablemente burbujeante bajo la filosofía de las iniciativas web de su momento, la idea de un portal a través del cual el usuario accedía a la red y que trataba de mantenerlo retenido la mayor cantidad de tiempo posible ofreciéndole todos los servicios que pudiese demandar: noticias, contenidos de diversos tipos, correo electrónico, entretenimiento, etc. Pero al cabo de pocos años en los que la idea tendría que haber evolucionado, prácticamente todos en la web excepto Yahoo!, AOL y Terra se habían dado cuenta de que la idea del portal correspondía al siglo pasado, que los usuarios demandaban otro tipo de servicios, que en torno a esos servicios estaban surgiendo otro tipo de compañías destinadas a convertirse en gigantes, y que seguir invirtiendo en aquel modelo trasnochado era una pérdida de tiempo y esfuerzos.

Finalmente, una total falta de visión y de fe, combinada con una mala elección de directivos que no creían realmente en internet liderados por un Alierta que jamás llegó a tener ni la más ligera idea de lo que era el negocio de las telecomunicaciones, terminó por convertir lo que pudo ser un proyecto interesante y con un buen equipo, en otro destinado a ir perdiendo lentamente relevancia, hasta su desaparición final. Una triste historia de destrucción de valor y pérdida de oportunidades, caracterizado por una nociva mentalidad de operadora capaz de definir la distancia entre lo que pudo ser… y lo que terminó siendo.

 

WanaCryptAyer, los medios vivieron un episodio de esos en los que, claramente, el desconocimiento alimenta el pánico, y terminas hablando de supuestos ataques organizados y hasta de ciberguerra ante un simple virus que se esparce de manera completamente aleatoria y que no debería generar ningún problema si se tiene una mínima rutina de copias de seguridad.

El ransomware es un fenómeno ya muy antiguo: se infecta un equipo con un programa que cifra los contenidos del disco duro, y se reclama un rescate a través de algún medio de pago que permita cierto nivel de anonimato. La infección puede producirse a través de spam o por otros métodos, tratando de conseguir que el usuario abra un enlace que permita la descarga del programa, y buscando posteriormente otros equipos que infectar a partir de ese. Si esa infección se propaga en una red corporativa en la que los antivirus no estén a la última, bien por desidia o por plazos de verificación que a veces se imponen de manera rutinaria, lo único que hay que hacer, si se trata de un sitio serio, es desconectar los equipos infectados, eliminar la infección, recuperar el contenido de esos equipos del servidor de copias de seguridad, y a otra cosa. No hay más problema.

Que aparezca un virus de este tipo en una compañía no es nada infamante ni deshonroso: en cualquier sitio, por actualizadas que estén sus políticas de seguridad, puede ocurrir que una persona haga clic en un enlace o entre en una página que posibilite una infección. Hablando ayer sobre el tema con Marcos Sierra, de Voz Pópuli, que fue ayer el primero en reportar la infección de algunos ordenadores de la red de Telefonica, recurrí a la famosa frase de Gene Spafford, Spaf, que para mí sienta perfectamente bien las bases de lo que es la seguridad informática:

“The only truly secure system is one that is powered off, cast in a block of concrete and sealed in a lead-lined room with armed guards – and even then I have my doubts.”

(El único sistema verdaderamente seguro es uno que esté apagado, metido en un bloque de hormigón y sellado en una habitación aislada con plomo y con guardias de seguridad – y aún así, tengo mis dudas)

Hoy, Marcos me cita e incluye la frase en su noticia titulada “España no está preparada para una ciberguerra: hablan los expertos“, que no pretende ser un ataque a los protocolos de seguridad del estado español, sino una evidencia: nadie está realmente preparado para algo así. Si alguien tiene suficiente interés en atacar tus sistemas, será capaz de hacerlo. Lo peor que puede hacer es ponerte en la posición de ser un objetivo interesante: presumir ostentosamente de tu seguridad, desafiar a posibles atacantes o simplemente, ser un símbolo de algo puede convertirte en objetivo, y nadie puede superar un ataque específicamente diseñado para ello. Obviamente, esto no debe hacernos caer en el derrotismo y en el “para qué voy a protegerme”, sino todo lo contrario: debemos hacer todo lo que razonablemente esté en nuestra mano para evitarlo, pero sabiendo que el riesgo cero, sencillamente, no existe. Y si ocurre, lo que hay que hacer es ser transparente y arreglarlo lo antes posible, que fue ni más ni menos lo que ayer hizo Telefonica.

Pero lo importante, por supuesto, es entender las diferencias entre lo de ayer – una simple infección aleatoria que llegó a Telefonica y a otras empresas como pudo llegar al patio de mi casa, que es particular – y un ataque organizado, selectivo, o peor aún, una ciberguerra destinada a provocar daños concretos y a comprometer la disponibilidad de infraestructuras críticas. Nada de eso ocurrió ayer: no hubo “países afectados”, ni “empresas paralizadas”, sino una simple infección aleatoria que alcanzó a algunos equipos, y que solo provocó daños a quien careciese de rutinas de copia de seguridad, algo que desgraciadamente aún es habitual a algunos niveles, y que sí debería ser objeto de estudio. No debes tenerle miedo a los virus, a lo que debes tenerle miedo es a las compañías que no se protegen o que no hacen copias de seguridad. Ayer no hubo “ataque a tal o cual compañía”, ni información comprometida, ni peligro para los usuarios, ni nada por el estilo. Solo unos aprovechados intentando ganar dinero con la ignorancia ajena o a costa de quienes no tienen prácticas de seguridad mínimamente adecuadas. Mezclar términos de manera irresponsable al informar no es más que buscar el sensacionalismo y alimentar el pánico, algo nunca recomendable en ningún contexto. Y en seguridad, menos aún.

 

IMAGE: Theeravat Boonnuang - 123RFMarcos Sierra, de Voz Pópuli, me llamó ayer para hablar sobre la transformación de las operadoras al hilo de unas declaraciones del CEO de Orange en España, Laurent Paillassot, y hoy me cita en su artículo titulado “El 5G convertirá a los operadores en ‘compañías de software’” (pdf).

La transformación digital de las operadoras es una cuestión sumamente compleja, que en ningún caso se va a solucionar con un “vamos a convertirnos en empresas de software”. En el proceso de reconversión de la industria de las telecomunicaciones habrá operadoras que opten por una estrategia de liderazgo en costes, que se centren en la pura infraestructura, en el “más gigabytes por menos dinero” y en ser la “dumb pipe” más eficiente, y sin duda, habrá espacio en el mercado para ese posicionamiento. El otro extremo del proceso lo protagonizaran compañías que decidan afrontar la transformación digital en su totalidad, con sus tres etapas, y eso exige un planteamiento mucho más complejo y evolucionado que simplemente “convertirse en empresas de software”.

La transformación digital de las operadoras exige, en primer lugar, una reconversión radical de la capa de interacción con el cliente, algo que muy pocas operadoras están en disposición de acometer, en parte por la fuerte dependencia de sistemas legacy, y en parte – y no menos importante – por cuestiones relacionadas con la cultura corporativa, con la necesidad de acabar con eso que yo en su momento llamaba “mentalidad de operadora“. Después, es preciso acometer un fortísimo desarrollo interno para orientar la compañía a la generación de datos, lo que implica nuevos desarrollos, contratación de personas con habilidades muy diferentes a las que solían contratar, y una mentalidad completamente distinta. Y finalmente, pero radicalmente importante, implica abrazar una mentalidad de plataforma, lo que conlleva convertir toda la compañía en capas de APIs para construir soportes sobre los que todo se genere un ecosistema en el que otras empresas de todo tipo puedan desarrollar negocios. Todo ello teniendo en cuenta las nuevas reglas de la interacción: el respeto al cliente, la portabilidad de los datos y la transparencia en la gestión.

Todo esto supone mucho, muchísimo más que simplemente “convertirse en empresas de software”. Es más, si la frase “convertirnos en empresas de software” implica de alguna manera intentar competir con las empresas de software generando productos para el usuario, es una estrategia condenada al fracaso, porque en algún momento reflejará la triste mentalidad de vulneración de la neutralidad de la red, y caerá en el “privilegio mi app para que funcione mejor que otras”. No, el negocio no es el software. El software va a ser necesario, las compañías que decidan emprender estar ruta van a tener que contratar legiones de desarrolladores bien cualificados y generar una cultura de orientación al desarrollo que no es en absoluto sencilla, pero además, van a tener que entender que la idea no es crear productos finales, sino ser plataforma para los productos de otros. El negocio está en la inteligencia de plataforma, en el machine learning, en la inteligencia artificial y en la capacidad para dar lugar, a partir de sus servicios, a todo un ecosistema del que el cliente quiera formar parte. Y eso ni es sencillo, ni va a estar al alcance de todas las operadoras.

En telecomunicaciones, como en todo, hay empresas en muy distintos momentos de evolución en este sentido. Por el momento, y dicho con todas las reservas que conlleva evaluar un plan cuando está simplemente en sus inicios, lo que he podido ver que me haya resultado más convincente y que me parece que refleja mejor esos principios de transformación digital ha sido la Cuarta Plataforma de Telefonica, pero aunque mover una operadora no sea sencillo y requiera cierto tiempo y esfuerzo, esta industria es dinámica, y es importante tener en cuenta no solo las estrategias, sino la manera en la que se trasladan al mercado. No, redibujar las operadoras no va a resultar sencillo. Pero va a convertirse en la auténtica clave de su futuro.

Sobre este tema, aún nos queda mucho por ver. Y por escribir.

 

 

This post is also available in English in my Medium page, “Redefining the operators