TensorFlowTodo indica que Google está comenzando a promocionar activamente en el mercado chino su plataforma de machine learning, TensorFlow, en un mercado del que salió huyendo hace algún tiempo con su motor de búsqueda, pero que cumple todas las características para ser uno de los entornos más decisivos del futuro. Varios eventos privados, trabajo en universidades y con líderes de opinión en ese entorno parecen destinados a convertir TensorFlow en la plataforma de desarrollo elegida por más y más estudiantes, académicos y trabajadores, en un entorno en el que el desarrollo de todo lo relacionado con machine learning parece haberse convertido en una prioridad nacional, y en el que la generación de datos parece contar con muchos menos límites en términos de privacidad que los existentes en otros entornos.

La atención dedicada por Google deja clara la importancia del mercado que está comenzando a desarrollarse en torno a las plataformas de machine learning, en un mercado que está comenzando a definirse según hablamos. La importancia que Google otorga al tema es elevadísima: la compañía insiste en que se trata del próximo gran factor competitivo, en que está redefiniendo la totalidad de sus actividades en torno al tema, y en que está dotando de competencia y habilidades en machine learning a todo su personal, a prácticamente todos los niveles. Adquisiciones, plataformas, presencia en plataformas de terceros, y una labor de constante apostolado para una herramienta que muchos desarrolladores que utilizan de forma habitual critican fuertemente, pero que parece constituir la apuesta de la compañía por obtener un liderazgo en el desarrollo de soluciones basadas en machine learning. Para los desarrolladores, es muy posible que TensorFlow suponga una opción importante, con la posible ventaja de contar con una compañía puntera detrás, y con la posibilidad de mejorar rápidamente sus problemas principales, pero ahora mismo, tiene claramente sus detractores.

¿Dónde radica la importancia de estos movimientos? Una parte muy importante del futuro de la disciplina podría venir determinado por la elección de los desarrolladores, de las personas que trabajan en la adaptación de sus aplicaciones de todo tipo para hacer uso del machine learning. Compañías como Facebook y otras han reaccionado liberando sus plataformas en open source para obtener una popularidad mayor, otras como IBM aplican su fuerza comercial para multiplicar su llegada al mercado corporativo tradicional, mientras otras más pequeñas como BigML – de la que soy asesor estratégico – presumen de una gran usabilidad, una amplia gama de soluciones, una gran preferencia entre los desarrolladores que lo utilizan, y una creciente cantidad de instalaciones en compañías de todas las industrias. En ese escenario, el mercado chino representa posiblemente el de mayor crecimiento en número de desarrolladores, el que más compañías parecen estar afrontando con un mayor nivel de prioridad, y un entorno en el que muchos conceptos difíciles de plantear en otros países podrían convertirse en realidad.

Machine learning ya es mucho más que un concepto o una tendencia: está definiendo los entornos del futuro, y las compañías lo saben. Si aprender o entender machine learning no está en tu agenda como directivo, sin duda hay algo que te estás perdiendo, y es muy relevante: que las decisiones que en gran medida contribuyan a dar forma a tus productos y servicios en el futuro no las vas a tomar tú ni directivos como tú, sino tus desarrolladores, un talento escaso que en muchas compañías ya ocupa los puestos mejor pagados, y al que se llega con argumentos completamente distintos a los que se plantean para convencer al directivo tradicional. La batalla por la hegemonía en las herramientas del futuro se juega en otros terrenos.

 

AI, AR/VR, Blockchain, EnernetCon ocasión de una entrevista que me hicieron para un informe de inversión de Arcano Partners y de una presentación que Informa me pidió para el evento de celebración de su XXV aniversario, tuve la oportunidad de reflexionar un poco sobre las tecnologías que tendrán un impacto más importante en el futuro cercano.

El ejercicio es interesante, porque cuando una parte importante de tu trabajo es analizar tecnologías y estar pendiente de sus desarrollos, tiendes a ver ese avance como un conjunto heterogéneo de líneas, pero sin realmente detenerte a trazar un mapa de cuáles son los avances que, de alguna manera, tenderías a ver como responsables de más impacto. Obviamente, faltan temáticas y muy posiblemente podríamos discutir la priorización o el etiquetado, pero creo que, de alguna manera, pueden resumirse razonablemente bien de una manera amplia e inclusiva en esos cuatro epígrafes que aparecen simbolizados en la imagen: AI/machine learning, realidad virtual o aumentada, blockchain y energía.

AI/Machine learning es algo que requiere, para mí, muy poca explicación. Sin duda la etiqueta que, desde hace un cierto tiempo, más he utilizado para clasificar las entradas en mi página, y la que mejor define en este momento mis intereses de infvestigación. Hablamos de un conjunto de tecnologías que estarán en absolutamente todas partes, en todo tipo de procesos desde industriales hasta de servicios, en los vehículos autónomos o en el desarrollo de la genética. Cada día son más las compañías que, con mucha razón, se obsesionan con la idea de entender el futuro de su actividad a la luz de las posibilidades que ofrece el convertirse en intensivas en la generación de datos y utilizarlos para alimentar algoritmos, y la importancia de que todos los directivos que trabajen en la compañía entiendan cómo funciona. Todos los procesos de transformación digital tienen de una u otra manera como objetivo final el ser capaz de incorporar AI/Machine learning a sus procesos: digitalizarlo todo para ponerlo al servicio de la generación constante y continua de datos, redefinir los procesos internos, y redefinir el modelo de negocio en función de las posibilidades que ofrecen esos algoritmos alimentados con los datos de la actividad. Desarrollos que pueden generar una de las mayores alteraciones en nuestra sociedad, eliminar una amplia cantidad de tareas que hoy conocemos como trabajo y que dejarán de tener sentido, e impactar incluso la manera en la que nos definimos como sociedad dando lugar a modelos redistributivos radicalmente diferentes a los actuales.

AR/VR es, sin duda, otra de esas tecnologías o conjunto de tecnologías capaces de modificar nuestro día a día, y de ofrecernos posibilidades que aún no llegamos a imaginar. Más allá de la simple proyección a corta distancia de nuestros ojos de una serie de imágenes que nos permitan la creación de un entorno inmersivo o de una capa superpuesta sobre la realidad, hablamos de la posibilidad de redefinir una buena parte de nuestro trabajo, nuestro ocio, nuestra interacción con la información, el aprendizaje, y una amplísima variedad de tareas más. Una tecnología muchas veces minimizada por su origen y desarrollo en entornos como el gaming, que trasladará su impacto a una gran cantidad de actividades y se convertirá en prácticamente ubicua.

Blockchain es la esencia de la transaccionalidad: todo aquello que pueda ser definido como una transacción, sea un intercambio económico o de otro tipo, tendrá como base una cadena de bloques, la solución más elegante jamás diseñada para garantizar su integridad. La adopción de blockchain en todas las industrias determinará una fortísima ganancia de agilidad y el cambio en el funcionamiento de muchos mecanismos que hoy damos como imprescindibles, pero que no lo son. El impacto de blockchain se verá en todas partes, incluyendo posibilidades para todo el resto de las tecnologías que conocemos.

Y finalmente, la transformación de la energía gracias a la progresiva mejora en eficiencia y abaratamiento de los paneles solares y de la extensión de la energía eólica y otras renovables, la pila de hidrógeno, la mejora en la tecnología de las baterías y la distribución de la generación eléctrica – la llamada “enernet” – conforma una amplia panoplia de avances que darán lugar a un entorno de energía abundante, limpia y barata, con todo lo que ello conlleva de revolucionario en un mundo en el que, tradicionalmente, el acceso a la energía ha determinado el mapa económico, ha funcionado como un factor limitante del desarrollo, y nos ha llevado a poner en grave peligro el entorno natural. El cambio en el mapa energético y el aprovechamiento ubicuo de tecnologías de generación limpias será, sin duda, uno de los factores que más impacto tendrá sobre el futuro de la humanidad.

Obviamente, esto no es más que un resumen corto de por qué pienso que esas cuatro tecnologías son las que, en mayor medida y entendidas de manera inclusiva, tendrán un mayor impacto en el futuro a medio plazo. Las predicciones están para lo que están, pero creo que estas pueden ser vistas como un tanto obvias, como apuestas casi seguras, aunque por supuesto, pueda haber otras que tengan un impacto potencialmente muy elevado, como podrán ser la computación cuántica, la edición genética, el grafeno o algunas otras que posiblemente estén en la mente de muchos. Esto es, simplemente, un intento de determinar niveles de criticidad, de evaluar posibilidades de impacto futuro, y de plantear actuales y futuros niveles de desarrollo de una manera realista. Quien no tenga en su mapa esas cuatro tecnologías, es más que posible que se haya perdido algo, y es más que posible que sea algo muy importante.

 

IMAGE: Hafakot - 123RF

Cada día está más claro: a medida que las soluciones de machine learning y su aprendizaje rebajan sus barreras de entrada, su manejo a cierto nivel se convierte en la nueva línea imprescindible en el curriculum, en el nuevo talento escaso por el que las compañías están dispuestas a pagar salarios cada vez más elevados. En pleno 2017, poder plantear modelos de machine learning para una gama cada vez más elevada de situaciones está pasando a ser lo que, en su momento, pudo ser poder poner en tu curriculum que utilizabas “informática a nivel de usuario” o que tenías “soltura en el manejo de hojas de cálculo”, un elemento cada día más imprescindible.

Robots que fabrican otros robots, máquinas que se programan a sí mismas, automóviles que cuesta menos asegurar porque tienen prestaciones de conducción semi-autónoma que da lugar a una accidentalidad menor, enormes librerías de vídeos para enseñar conceptos a las máquinas, todo tipo de propuestas para entender y aprender machine learning sin necesidad de programar… no, esto ya no es una cuestión de movimientos propagandísticos y de cuál es el siguiente reto que una máquina consigue hacer mejor que un humano. Esto es la revolución que viene, el gran game changer, con un nivel de impacto sobre nuestras vidas similar al que tuvo en su momento el desarrollo de internet. Lo puedes leer en todas partes.

Cuando todo a tu alrededor, hasta tu smartphone, empieza a incorporar prestaciones basadas en machine learning y es capaz de reconocer tu cara aunque te hayas dejado barba o lleves unas gafas puestas, o de proponerte usos basados en la información que recibes o en los hábitos que muestras habitualmente, lo que nos está diciendo es que hablamos de la próxima frontera, de lo que hay que tener para que los productos y servicios sean competitivos. Hablemos de fabricación, de operaciones, de marketing, de distribución, de servicio al cliente, de marketing o de lo que sea, tenemos que acostumbrarnos a pensar que nos vamos a encontrar con esto en una gama creciente de productos y servicios, y que alguien va a tener que gestionarlos, que saber cómo convertir esas posibilidades en ventajas competitivas. La nueva generación de directivos tendrá necesariamente que pasar por ese desarrollo de habilidades, o bien volver a formarse para adquirirlas. Hablar simplemente de oídas o quedarse con mitos manoseados y lugares comunes no va a ser suficiente.

¿Burbuja? Como en todas las cosas y como en todas las tecnologías anteriores, una parte sí. Pero sin duda, es el momento de asentar conceptos y de amueblar bien nuestro futuro en torno a un tema que va a jugar un importantísimo papel en su definición.

 

IMAGE: Peerayot To-im - 123RFExplicar la noticia de hace unos pocos días sobre AlphaGo Zero, el último avance en el algoritmo que fue capaz de ganar con gran ventaja a los tres mejores jugadores del mundo de Go, el llamado “ajedrez asiático”, con unas reglas aparentemente muy sencillas pero con posibilidades combinatorias enormemente complicadas, puede ser relativamente complicado en el mundo occidental, donde la popularidad de este juego es relativamente escasa.

La noticia fue publicada originalmente por DeepMind, la compañía adquirida por Google en 2014, y bien reflejada tanto por MIT Tech Review como por The Atlantic, que se centran en explicar la diferencia entre el hito obtenido por AlphaGo Zero frente al llevado a cabo en enero de 2016 por AlphaGo. Las explicaciones pueden ayudar a entender algunos conceptos básicos de machine learning, y cómo esta disciplina podría evolucionar en el futuro.

Como ya comenté en su momento, lo que AlphaGo obtuvo cuando venció a los mejores jugadores del mundo fue un desarrollo de deep learning seguido de reinforcement learning: tras entrenar originalmente al algoritmo con todas las partidas de Go registradas en la historia del juego disponibles, se obtuvo una máquina capaz de imitar a los mejores jugadores, capaz de predecir sus jugadas en un 57% de las ocasiones, pero incapaz, por lo general, de mejorar su rendimiento en una partida. Para lograrlo, se planteó entrenar a esa máquina con nuevas partidas inventadas por sí misma mediante combinatoria, dando lugar a jugadas previamente inexistentes, no llevadas a cabo anteriormente, con probabilidades muy bajas y no contempladas nunca – y por tanto, no anticipables – por jugadores humanos, pero que fueron las que, en último término, lograron decidir algunas de las partidas definitivas. AlphaGo logró ganar a los mejores jugadores humanos gracias a haber probado anteriormente espacios combinatorios que, sencillamente, nunca habían sido probados anteriormente en ninguna partida, y que podían, a pesar de su bajísima probabilidad, dar lugar a estrategias ganadoras. 

¿Qué aporta, sobre esto, AlphaGo Zero? Sencillamente, eliminar la primera fase, la del aporte del registro histórico de partidas de Go jugadas por humanos. Para obtener este nuevo algoritmo, que ha sido capaz de vencer al anterior AlphaGo por cien partidas a cero, se partió, como su nombre indica, desde cero. Un algoritmo con las reglas del juego definidas, que comienza desde ahí a probar movimientos en partidas que juega contra sí mismo. Si tienes una suscripción, lo puedes leer en NatureTras el adecuado número de iteraciones, muchos millones de partidas, ese algoritmo, que nunca ha recibido información sobre partidas jugadas con humanos, supera al anterior, lo que elimina la necesidad, en problemas que puedan ser homologados a este – problemas estables con entornos altamente predecibles – de partir de una amplia cantidad de datos históricos.

¿Qué debería llevarnos a pensar un hito como este? Para un directivo, significa que tendría que empezar a pensar qué operaciones en su cadena de valor o en su día a día pueden caer dentro de este tipo de situaciones: espacios combinatorios muy amplios, pero que generan resultados predecibles en torno a reglas conocidas y bien definidas. Obviamente, no se trata de la solución a todos los problemas, pero sí posiblemente a algunos. Es el momento de empezar a plantearnos este tipo de cuestiones: qué problemas podemos resolver mediante algoritmos que aprenden a partir de datos históricos, recogidos en nuestros ficheros transaccionales, en nuestros CRMs o en nuestros ERP a lo largo de años de operativa, y cuáles pueden solucionarse sin necesidad de esos datos, simplemente definiendo bien las reglas y entrenando al algoritmo desde un espacio combinatorio limpio, desde cero.

La alternativa no es poca cosa: en la inmensa mayoría de las ocasiones, la mayor inversión en tiempo y recursos en los proyectos de machine learning, en torno a un 80%, tiene que ver con la recolección de datos hoy almacenados en modelos relacionales, con su transformación y con su preparación. Si para algunos proyectos podemos partir de cero, la situación en términos de reducción de coste y de incremento del rendimiento puede ser considerable, y puede convertirse en interesantes ventajas competitivas. Entender ese tipo de situaciones, ser capaces de pensar en términos de entrenamiento de algoritmos, y desarrollar una cierta sensibilidad sobre qué técnicas pueden servir a qué situaciones son precisamente el tipo de habilidades que las compañías tendrían que estar ahora mismo desarrollando en sus directivos, no discusiones sobre dudosos futuros apocalípticos, robots asesinos y mundos post-trabajo. De hecho, lo que queda es, precisamente, mucho trabajo por hacer.

 

IMAGE: Wbraga - 123RF

Un artículo de TechCrunch recoge un perfil de Tuputech, una compañía china basada en Guangzhou dedicada al análisis y procesamiento algorítmico de imágenes, y que se ha especializado en la detección de contenidos pornográficos o violentos mediante deep learning en el contexto de la muy exigente censura china. 

La compañía supone una solución al actual estado del arte en la detección y eliminación de contenidos pornográficos o violentos, que suele depender en gran medida de una supervisión y verificación manual. Con el impulso dado en algunos países al control de contenidos y el desarrollo de leyes que multan con cuantiosas cantidades a las plataformas que los publican, este tipo de herramientas de supervisión algorítmicas se han convertido en una propuesta cada vez más inevitable, y una plataforma entrenada de manera intensiva en un entorno tan sometido a censura como el que demanda el gobierno chino pasa a tener una importantísima ventaja competitiva: capaz de revisar 900 millones de imágenes diariamente, de procesar 50 imágenes por segundo, y de identificar pornografía o violencia con un 99.5% de fiabilidad. En muchos sentidos, es lo que comenté hace ya algunos años: China se ha convertido en el laboratorio del mundo, y muchas de las herramientas que se desarrollan allí y que en principio interpretamos como negativas, nocivas o contrarias a la libertad de las personas, terminan siendo adoptadas en otros países supuestamente democráticos.

¿Qué ocurre cuando la censura de contenidos pasa a estar desarrollada ya no por personas, sino por algoritmos de deep learning sometidos a un continuo proceso de entrenamiento? ¿Y si esa tecnología deja de ser empleada simplemente para detectar imágenes pornográficas y contenidos violentos, y pasa a utilizarse para aquello que no se quiere que sea visto o leído? ¿Qué evita, una vez desarrollado un algoritmo capaz de detectar determinados contenidos, que pueda ser entrenado para otros? Sencillamente, que el sueño de libertad que un día supuso el desarrollo de internet se convierte en una pesadilla de control omnímodo, de censura prácticamente infalible, de sumisión al juicio de un algoritmo. Si quieres controlar la información a la que tu población accede, ya no tendrás que poner a un ejército de personas vigilando todo lo que hacen en la red: simplemente tendrás que entrenar a los algoritmos adecuados. Restringir el acceso al cifrado, a las VPNs y a los proxies es, lógicamente, el siguiente paso natural. The internet is for porn? Solo hasta que el algoritmo decida que deje de serlo.

Sentados delante de una pantalla, y vigilados por algoritmos que nos dicen lo que podemos y no podemos ver. Algunos puede que piensen que una red libre de pornografía y violencia es una cosa positiva… pero se equivocan, y no precisamente por la pornografía y la violencia, sino por todo lo que puede venir detrás. Que Tuputech, una compañía creada y crecida a la sombra de la censura gubernamental china, se convierta de repente en interesante para muchos países y empresas de otros países es un muy mal augurio de los tiempos que se nos vienen encima…