IMAGE: Alex Millos - 123RFEl concepto del advance fee fraud, o 419 scam (conocido así por el artículo del código penal nigeriano correspondiente al fraude) es casi tan antiguo como la propia internet, pero si nos atenemos a su abundancia, parece evidente que siguen existiendo incautos que caen en él y que, posiblemente por vergüenza, no llegan nunca a denunciarlo.

La idea es completamente simple: recibes un correo que te ofrece una cantidad de dinero (una herencia, un depósito que se pretende sacar de un país corrupto, un premio de lotería que nos ha correspondido por un supuesto error, etc.) y que, en caso de ser contestado, pasa a reclamar progresivamente pequeñas cantidades en concepto de gastos que van siendo entregadas a cuenta de un pago que, obviamente, nunca llega a producirse. En el fondo, pura aritmética: enviar el timo en forma de correo indiscriminado resulta tan barato, que con que sea capaz de obtener una respuesta de un incauto entre varios millones, el esquema ya resulta rentable.

A cuenta de las famosas estafas hemos visto de todo: personas que se dedican a intentar hacer perder tiempo o recursos a los estafadores – un “deporte” que hasta tiene nombre, scam baiting – o incluso sitios ya famosos como 419-eaters, dedicados a ridiculizarlos. Ahora, llega lo último en lucha contra los timadores: una organización sin ánimo de lucro neozelandesa, Netsafe, diseña un asistente conversacional, un chatbot, que contesta a ese tipo de mensajes mediante elaborados esquemas conversacionales en los que se hace pasar por una posible víctima, destinados a hacer perder el tiempo al timador con respuestas dilatorias que – obviamente – no van a ningún sitio, y que únicamente tratan de distraerlo para conseguir que incurra en un gasto de recursos y de paciencia.

El asistente se denomina Re:scam, tiene cuatro modelos básicos utilizados habitualmente por los estafadores – el de la cuenta bancaria, el del supuesto heredero, el de la transferencia y el de las fotografías comprometedoras – y basta con reenviarle el correo recibido para activar la contestación, con la promesa de que la cuenta de correo original que recibió el mensaje nunca será utilizada en el intercambio con el estafador. Tras comprobar que el correo es efectivamente un intento de estafa, la herramienta pasa a responder. Algunas de las respuestas, en las que se pretende hacer pasar al remitente por una persona mayor, incauta o ingenua susceptible de caer en la estafa, resultan verdaderamente graciosos, y en algunos casos, se logra mantener al estafador entretenido durante cuatro o cinco rondas de conversación. Como hace años comentaba Michael Berry, el fundador de 419-eater, “cada minuto que el estafador gasta comunicándose conmigo es un minuto que no está estafando a otra víctima”. 

No sé si es la mejor manera de responder a este tipo de esquemas  – por lo general lo más práctico es simplemente ignorarlos, y más teniendo en cuenta que los filtros anti-spam mejoran cada día más y que si quieres leer esos mensajes te tienes que ir a buscarlos específicamente al fondo de la carpeta correspondiente – pero sí es una prueba interesante de cómo mejoran ese tipo de asistentes conversacionales y cómo pueden hacerse funcionar configurándolos con un propósito determinado. En realidad, se trata de un intento de romper la aritmética del sistema: si logras que contestar a esos correos sea tan barato y automatizado como enviarlos, y consigues que cada respuesta obligue al estafador a incurrir en costes adicionales y atención personal, puedes llegar supuestamente a convertir el sistema en absurdo. Por lógica, supongo que esto acabará en que los propios estafadores tengan también robots conversacionales contestando esos mensajes de manera automática con correos preformateados, y a que se genere una conversación completamente absurda y eterna entre dos máquinas intentando timarse una a la otra. Pero en último término, lo de intentar “timar al timador” resulta hasta terapéutico… :-)

 

AI, AR/VR, Blockchain, EnernetCon ocasión de una entrevista que me hicieron para un informe de inversión de Arcano Partners y de una presentación que Informa me pidió para el evento de celebración de su XXV aniversario, tuve la oportunidad de reflexionar un poco sobre las tecnologías que tendrán un impacto más importante en el futuro cercano.

El ejercicio es interesante, porque cuando una parte importante de tu trabajo es analizar tecnologías y estar pendiente de sus desarrollos, tiendes a ver ese avance como un conjunto heterogéneo de líneas, pero sin realmente detenerte a trazar un mapa de cuáles son los avances que, de alguna manera, tenderías a ver como responsables de más impacto. Obviamente, faltan temáticas y muy posiblemente podríamos discutir la priorización o el etiquetado, pero creo que, de alguna manera, pueden resumirse razonablemente bien de una manera amplia e inclusiva en esos cuatro epígrafes que aparecen simbolizados en la imagen: AI/machine learning, realidad virtual o aumentada, blockchain y energía.

AI/Machine learning es algo que requiere, para mí, muy poca explicación. Sin duda la etiqueta que, desde hace un cierto tiempo, más he utilizado para clasificar las entradas en mi página, y la que mejor define en este momento mis intereses de infvestigación. Hablamos de un conjunto de tecnologías que estarán en absolutamente todas partes, en todo tipo de procesos desde industriales hasta de servicios, en los vehículos autónomos o en el desarrollo de la genética. Cada día son más las compañías que, con mucha razón, se obsesionan con la idea de entender el futuro de su actividad a la luz de las posibilidades que ofrece el convertirse en intensivas en la generación de datos y utilizarlos para alimentar algoritmos, y la importancia de que todos los directivos que trabajen en la compañía entiendan cómo funciona. Todos los procesos de transformación digital tienen de una u otra manera como objetivo final el ser capaz de incorporar AI/Machine learning a sus procesos: digitalizarlo todo para ponerlo al servicio de la generación constante y continua de datos, redefinir los procesos internos, y redefinir el modelo de negocio en función de las posibilidades que ofrecen esos algoritmos alimentados con los datos de la actividad. Desarrollos que pueden generar una de las mayores alteraciones en nuestra sociedad, eliminar una amplia cantidad de tareas que hoy conocemos como trabajo y que dejarán de tener sentido, e impactar incluso la manera en la que nos definimos como sociedad dando lugar a modelos redistributivos radicalmente diferentes a los actuales.

AR/VR es, sin duda, otra de esas tecnologías o conjunto de tecnologías capaces de modificar nuestro día a día, y de ofrecernos posibilidades que aún no llegamos a imaginar. Más allá de la simple proyección a corta distancia de nuestros ojos de una serie de imágenes que nos permitan la creación de un entorno inmersivo o de una capa superpuesta sobre la realidad, hablamos de la posibilidad de redefinir una buena parte de nuestro trabajo, nuestro ocio, nuestra interacción con la información, el aprendizaje, y una amplísima variedad de tareas más. Una tecnología muchas veces minimizada por su origen y desarrollo en entornos como el gaming, que trasladará su impacto a una gran cantidad de actividades y se convertirá en prácticamente ubicua.

Blockchain es la esencia de la transaccionalidad: todo aquello que pueda ser definido como una transacción, sea un intercambio económico o de otro tipo, tendrá como base una cadena de bloques, la solución más elegante jamás diseñada para garantizar su integridad. La adopción de blockchain en todas las industrias determinará una fortísima ganancia de agilidad y el cambio en el funcionamiento de muchos mecanismos que hoy damos como imprescindibles, pero que no lo son. El impacto de blockchain se verá en todas partes, incluyendo posibilidades para todo el resto de las tecnologías que conocemos.

Y finalmente, la transformación de la energía gracias a la progresiva mejora en eficiencia y abaratamiento de los paneles solares y de la extensión de la energía eólica y otras renovables, la pila de hidrógeno, la mejora en la tecnología de las baterías y la distribución de la generación eléctrica – la llamada “enernet” – conforma una amplia panoplia de avances que darán lugar a un entorno de energía abundante, limpia y barata, con todo lo que ello conlleva de revolucionario en un mundo en el que, tradicionalmente, el acceso a la energía ha determinado el mapa económico, ha funcionado como un factor limitante del desarrollo, y nos ha llevado a poner en grave peligro el entorno natural. El cambio en el mapa energético y el aprovechamiento ubicuo de tecnologías de generación limpias será, sin duda, uno de los factores que más impacto tendrá sobre el futuro de la humanidad.

Obviamente, esto no es más que un resumen corto de por qué pienso que esas cuatro tecnologías son las que, en mayor medida y entendidas de manera inclusiva, tendrán un mayor impacto en el futuro a medio plazo. Las predicciones están para lo que están, pero creo que estas pueden ser vistas como un tanto obvias, como apuestas casi seguras, aunque por supuesto, pueda haber otras que tengan un impacto potencialmente muy elevado, como podrán ser la computación cuántica, la edición genética, el grafeno o algunas otras que posiblemente estén en la mente de muchos. Esto es, simplemente, un intento de determinar niveles de criticidad, de evaluar posibilidades de impacto futuro, y de plantear actuales y futuros niveles de desarrollo de una manera realista. Quien no tenga en su mapa esas cuatro tecnologías, es más que posible que se haya perdido algo, y es más que posible que sea algo muy importante.

 

IMAGE: Hafakot - 123RF

Cada día está más claro: a medida que las soluciones de machine learning y su aprendizaje rebajan sus barreras de entrada, su manejo a cierto nivel se convierte en la nueva línea imprescindible en el curriculum, en el nuevo talento escaso por el que las compañías están dispuestas a pagar salarios cada vez más elevados. En pleno 2017, poder plantear modelos de machine learning para una gama cada vez más elevada de situaciones está pasando a ser lo que, en su momento, pudo ser poder poner en tu curriculum que utilizabas “informática a nivel de usuario” o que tenías “soltura en el manejo de hojas de cálculo”, un elemento cada día más imprescindible.

Robots que fabrican otros robots, máquinas que se programan a sí mismas, automóviles que cuesta menos asegurar porque tienen prestaciones de conducción semi-autónoma que da lugar a una accidentalidad menor, enormes librerías de vídeos para enseñar conceptos a las máquinas, todo tipo de propuestas para entender y aprender machine learning sin necesidad de programar… no, esto ya no es una cuestión de movimientos propagandísticos y de cuál es el siguiente reto que una máquina consigue hacer mejor que un humano. Esto es la revolución que viene, el gran game changer, con un nivel de impacto sobre nuestras vidas similar al que tuvo en su momento el desarrollo de internet. Lo puedes leer en todas partes.

Cuando todo a tu alrededor, hasta tu smartphone, empieza a incorporar prestaciones basadas en machine learning y es capaz de reconocer tu cara aunque te hayas dejado barba o lleves unas gafas puestas, o de proponerte usos basados en la información que recibes o en los hábitos que muestras habitualmente, lo que nos está diciendo es que hablamos de la próxima frontera, de lo que hay que tener para que los productos y servicios sean competitivos. Hablemos de fabricación, de operaciones, de marketing, de distribución, de servicio al cliente, de marketing o de lo que sea, tenemos que acostumbrarnos a pensar que nos vamos a encontrar con esto en una gama creciente de productos y servicios, y que alguien va a tener que gestionarlos, que saber cómo convertir esas posibilidades en ventajas competitivas. La nueva generación de directivos tendrá necesariamente que pasar por ese desarrollo de habilidades, o bien volver a formarse para adquirirlas. Hablar simplemente de oídas o quedarse con mitos manoseados y lugares comunes no va a ser suficiente.

¿Burbuja? Como en todas las cosas y como en todas las tecnologías anteriores, una parte sí. Pero sin duda, es el momento de asentar conceptos y de amueblar bien nuestro futuro en torno a un tema que va a jugar un importantísimo papel en su definición.

 

IMAGE: Peerayot To-im - 123RFExplicar la noticia de hace unos pocos días sobre AlphaGo Zero, el último avance en el algoritmo que fue capaz de ganar con gran ventaja a los tres mejores jugadores del mundo de Go, el llamado “ajedrez asiático”, con unas reglas aparentemente muy sencillas pero con posibilidades combinatorias enormemente complicadas, puede ser relativamente complicado en el mundo occidental, donde la popularidad de este juego es relativamente escasa.

La noticia fue publicada originalmente por DeepMind, la compañía adquirida por Google en 2014, y bien reflejada tanto por MIT Tech Review como por The Atlantic, que se centran en explicar la diferencia entre el hito obtenido por AlphaGo Zero frente al llevado a cabo en enero de 2016 por AlphaGo. Las explicaciones pueden ayudar a entender algunos conceptos básicos de machine learning, y cómo esta disciplina podría evolucionar en el futuro.

Como ya comenté en su momento, lo que AlphaGo obtuvo cuando venció a los mejores jugadores del mundo fue un desarrollo de deep learning seguido de reinforcement learning: tras entrenar originalmente al algoritmo con todas las partidas de Go registradas en la historia del juego disponibles, se obtuvo una máquina capaz de imitar a los mejores jugadores, capaz de predecir sus jugadas en un 57% de las ocasiones, pero incapaz, por lo general, de mejorar su rendimiento en una partida. Para lograrlo, se planteó entrenar a esa máquina con nuevas partidas inventadas por sí misma mediante combinatoria, dando lugar a jugadas previamente inexistentes, no llevadas a cabo anteriormente, con probabilidades muy bajas y no contempladas nunca – y por tanto, no anticipables – por jugadores humanos, pero que fueron las que, en último término, lograron decidir algunas de las partidas definitivas. AlphaGo logró ganar a los mejores jugadores humanos gracias a haber probado anteriormente espacios combinatorios que, sencillamente, nunca habían sido probados anteriormente en ninguna partida, y que podían, a pesar de su bajísima probabilidad, dar lugar a estrategias ganadoras. 

¿Qué aporta, sobre esto, AlphaGo Zero? Sencillamente, eliminar la primera fase, la del aporte del registro histórico de partidas de Go jugadas por humanos. Para obtener este nuevo algoritmo, que ha sido capaz de vencer al anterior AlphaGo por cien partidas a cero, se partió, como su nombre indica, desde cero. Un algoritmo con las reglas del juego definidas, que comienza desde ahí a probar movimientos en partidas que juega contra sí mismo. Si tienes una suscripción, lo puedes leer en NatureTras el adecuado número de iteraciones, muchos millones de partidas, ese algoritmo, que nunca ha recibido información sobre partidas jugadas con humanos, supera al anterior, lo que elimina la necesidad, en problemas que puedan ser homologados a este – problemas estables con entornos altamente predecibles – de partir de una amplia cantidad de datos históricos.

¿Qué debería llevarnos a pensar un hito como este? Para un directivo, significa que tendría que empezar a pensar qué operaciones en su cadena de valor o en su día a día pueden caer dentro de este tipo de situaciones: espacios combinatorios muy amplios, pero que generan resultados predecibles en torno a reglas conocidas y bien definidas. Obviamente, no se trata de la solución a todos los problemas, pero sí posiblemente a algunos. Es el momento de empezar a plantearnos este tipo de cuestiones: qué problemas podemos resolver mediante algoritmos que aprenden a partir de datos históricos, recogidos en nuestros ficheros transaccionales, en nuestros CRMs o en nuestros ERP a lo largo de años de operativa, y cuáles pueden solucionarse sin necesidad de esos datos, simplemente definiendo bien las reglas y entrenando al algoritmo desde un espacio combinatorio limpio, desde cero.

La alternativa no es poca cosa: en la inmensa mayoría de las ocasiones, la mayor inversión en tiempo y recursos en los proyectos de machine learning, en torno a un 80%, tiene que ver con la recolección de datos hoy almacenados en modelos relacionales, con su transformación y con su preparación. Si para algunos proyectos podemos partir de cero, la situación en términos de reducción de coste y de incremento del rendimiento puede ser considerable, y puede convertirse en interesantes ventajas competitivas. Entender ese tipo de situaciones, ser capaces de pensar en términos de entrenamiento de algoritmos, y desarrollar una cierta sensibilidad sobre qué técnicas pueden servir a qué situaciones son precisamente el tipo de habilidades que las compañías tendrían que estar ahora mismo desarrollando en sus directivos, no discusiones sobre dudosos futuros apocalípticos, robots asesinos y mundos post-trabajo. De hecho, lo que queda es, precisamente, mucho trabajo por hacer.

 

IMAGE: Wbraga - 123RF

Un artículo de TechCrunch recoge un perfil de Tuputech, una compañía china basada en Guangzhou dedicada al análisis y procesamiento algorítmico de imágenes, y que se ha especializado en la detección de contenidos pornográficos o violentos mediante deep learning en el contexto de la muy exigente censura china. 

La compañía supone una solución al actual estado del arte en la detección y eliminación de contenidos pornográficos o violentos, que suele depender en gran medida de una supervisión y verificación manual. Con el impulso dado en algunos países al control de contenidos y el desarrollo de leyes que multan con cuantiosas cantidades a las plataformas que los publican, este tipo de herramientas de supervisión algorítmicas se han convertido en una propuesta cada vez más inevitable, y una plataforma entrenada de manera intensiva en un entorno tan sometido a censura como el que demanda el gobierno chino pasa a tener una importantísima ventaja competitiva: capaz de revisar 900 millones de imágenes diariamente, de procesar 50 imágenes por segundo, y de identificar pornografía o violencia con un 99.5% de fiabilidad. En muchos sentidos, es lo que comenté hace ya algunos años: China se ha convertido en el laboratorio del mundo, y muchas de las herramientas que se desarrollan allí y que en principio interpretamos como negativas, nocivas o contrarias a la libertad de las personas, terminan siendo adoptadas en otros países supuestamente democráticos.

¿Qué ocurre cuando la censura de contenidos pasa a estar desarrollada ya no por personas, sino por algoritmos de deep learning sometidos a un continuo proceso de entrenamiento? ¿Y si esa tecnología deja de ser empleada simplemente para detectar imágenes pornográficas y contenidos violentos, y pasa a utilizarse para aquello que no se quiere que sea visto o leído? ¿Qué evita, una vez desarrollado un algoritmo capaz de detectar determinados contenidos, que pueda ser entrenado para otros? Sencillamente, que el sueño de libertad que un día supuso el desarrollo de internet se convierte en una pesadilla de control omnímodo, de censura prácticamente infalible, de sumisión al juicio de un algoritmo. Si quieres controlar la información a la que tu población accede, ya no tendrás que poner a un ejército de personas vigilando todo lo que hacen en la red: simplemente tendrás que entrenar a los algoritmos adecuados. Restringir el acceso al cifrado, a las VPNs y a los proxies es, lógicamente, el siguiente paso natural. The internet is for porn? Solo hasta que el algoritmo decida que deje de serlo.

Sentados delante de una pantalla, y vigilados por algoritmos que nos dicen lo que podemos y no podemos ver. Algunos puede que piensen que una red libre de pornografía y violencia es una cosa positiva… pero se equivocan, y no precisamente por la pornografía y la violencia, sino por todo lo que puede venir detrás. Que Tuputech, una compañía creada y crecida a la sombra de la censura gubernamental china, se convierta de repente en interesante para muchos países y empresas de otros países es un muy mal augurio de los tiempos que se nos vienen encima…