IMAGE: Freestocks - CC0 licenseVarios artículos inciden en la enorme inquietud que ha generado en los estudios de Hollywood, entre las productoras de cine y televisión y, en general, entre los actores tradicionales de la industria la reciente oleada de acuerdos multimillonarios de Netflix con estrellas como Shonda Rhymes, Ryan Murphy o el matrimonio Obama para la producción de contenidos y su explotación a través de la plataforma. Frente al dinamismo de Netflix, la industria tradicional de los contenidos se encuentra atrapada por un mecanismo de producción anquilosado, que depende enormemente de las secuelas, precuelas y remakes de producciones que anteriormente demostraron algo de éxito, y en la que los ingresos o la popularidad que genera cada producción depende aparentemente de factores casi aleatorios o desconocidos.

La gran realidad del momento es que Netflix, alimentado por una corriente incesante de éxitos mundiales y con una entrada constante de dinero fresco procedente de las cuotas de sus ciento veinticinco millones de suscriptores, puede comprar absolutamente cualquier cosa y atraer a quien buenamente considere interesante atraer. La valoración de la compañía ha crecido más de un 70% desde el pasado enero, y de hecho, ha superado a Disney como compañía de medios más valiosa del mercado. La valoración actual de Netflix, 164,000 millones de dólares, contrasta con los 152,000 de Disney, con algunas diferencias fundamentales: la primera tiene en plantilla algo menos de cinco mil empleados frente a los casi doscientos mil de la segunda, y además, parece haber encontrado el secreto del éxito permanente para la inmensa mayoría de sus producciones.

En octubre de 2015, justo antes de la entrada de Netflix en el mercado español, escribí un position paper con las expectativas que dicha entrada podía generar, y apunté a “un primer año de toma de posiciones moderado, seguido de una expansión intensa y de un crecimiento progresivo a medida que incrementa su oferta gracias a la recuperación de los contratos de sus series más conocidas y al desarrollo de su oferta de producción propia”. A la luz de los datos, mi optimismo inicial se ha visto incluso superado por los resultados, y ello se debe, fundamentalmente, al hecho de introducir en el análisis un factor fundamental: la supremacía de los modelos basados en la analítica de datos.

Para el viejo Hollywood y para las productoras de contenidos tradicionales, el éxito es una variable escurridiza y difícil de entender. El mix entre temática, estilo, argumento, estrellas, directores y demás factores que afectan a la aceptación del producto en el mercado ha sido analizado durante décadas sin resultados demasiado concluyentes, o que simplemente afirman que “a más, mejor”: fuera de la obviedad de que acumular talento y argumentos o temáticas probadas en una producción supone un éxito, poco más se sabe, y los éxitos ocasionales inesperados en producciones de bajo presupuesto o que generan sorpresa se tratan como eso, como excepciones derivadas de algún tipo de capricho de los mercados. A lo largo de muchas décadas de historia, la industria de los contenidos no ha sabido hacer mucho más que eso, y la predicción del éxito es cosa de algunos cotizados expertos trabajando con metodologías parecidas a la alquimia.

Frente a eso, llega Netflix y aplica algo mejor: la analítica. Cada usuario de Netflix deja en la compañía no solo sus sustanciosas cuotas mensuales, sino también algo mucho más valioso: una gran cantidad de información detallada sobre sus gustos, sus hábitos y sus intereses. Con todos esos datos, Netflix es capaz de elaborar un cuidadoso análisis que permite no solo elaborar un algoritmo de recomendación en el que los usuarios confían porque tiende a acertar de manera muy habitual, sino además, toda una maquinaria de predicción de la demanda. Cuando Netflix cierra un acuerdo con Shonda Rhymes, Ryan Murphy o el matrimonio Obama no lo hace siguiendo algún tipo de inspiración, sexto sentido o instinto: lo hace siguiendo un modelo de datos que le dice que esa combinación de talento junto con una serie de argumentos esperables en función de su trayectoria y sobre los que Netflix podría, además, influir, tiene un porcentaje determinado de probabilidad de éxito. De hecho, no solo sabe qué probabilidad de éxito tiene, sino prácticamente quienes de sus clientes van a ver esa producción, y hasta con qué cadencia. Una capacidad de análisis que la industria tradicional, a pesar de los avances que ha supuesto la actividad de compañías como Rentrak (desde 2016, parte de ComScore) que intentan aproximarse a esas metodologías, se limita habitualmente a trabajar con datos agregados de distintas plataformas y con un nivel de información sociodemográfica mucho más básico.

La industria de los contenidos está siendo sometida a un tratamiento que vamos a ver en todas las demás: para ser exitosos, los modelos de negocio en la actualidad deben ser capaces de apalancarse en una generación de datos lo más detallada posible – y además, como bien sabemos en pleno momento de la entrada en vigor de GDPR, percibidos como razonablemente respetuosos con la privacidad – que sean capaces de alimentar modelos de datos sofisticados, algoritmos de machine learning adecuadamente entrenados que permitan entender el negocio: predicciones, expectativas, excepciones y todo tipo de información que permita gestionar de una manera cada vez más cuantitativa, más exacta, más científica. Las series de Netflix no están ahí porque un productor haya tenido una inspiración divina o un momento de lucidez, sino porque un modelo de datos afirma que van a funcionar. Netflix, en ese sentido, es claramente un modelo analítico del siglo XXI frente a los modelos trasnochados y basados en la intuición de las productoras de contenidos del siglo XX. Y en consecuencia, llegan unos resultados sostenidos a lo largo del tiempo que, para quien entienda el poder de la analítica, de los algoritmos y del machine learning… tienen poco de sorprendentes.

 

Graphext at IE WoW Room

El pasado viernes invité a pasar por una de mis clases en el Programa de Dirección en Comunicación Corporativa en IE Business School a Victoriano Izquierdo, amigo de toda la vida y fundador de Graphext, para una experiencia interesante: utilizar nuestra WoW Room, un aula con un videowall monstruoso de 45 metros cuadrados de monitores dispuestos en U, para un propósito completamente distinto de aquel para el que fue construida.

La WoW Room se presentó en octubre de 2016 como una idea fundamentalmente centrada en la formación online. Diseñada para salvar la distancia entre la enseñanza presencial y la online, la idea es la de poder impartir una sesión a personas ubicadas en cualquier parte del mundo, que posean simplemente un navegador Chrome y una conexión que ni siquiera tiene por qué ser demasiado rápida, de manera que el profesor pudiese sentirse como en un aula normal, viendo la cara y las expresiones de sus alumnos, pudiendo pasearse con una cámara que sigue sus movimientos, y con la posibilidad de establecer dinámicas de clase enriquecidas: no simplemente lanzar una pregunta y permitir la participación, sino también cuestiones como hacer encuestas y votaciones en tiempo real, o incluso un diagnóstico del nivel de engagement de los alumnos, no orientado en absoluto a su calificación (no se registra), sino como una ayuda para que el profesor pueda actuar en tiempo real sobre su dinámica de clase. Todo ello en un contexto que no precisa de cámaras, realizadores ni ningún personal especializado: el profesor llega, carga su presentación, enlaces, encuestas y materiales que quiera utilizar, e imparte su clase sin necesidad de ayuda adicional. La demostración y explicación original del aula, a la que dediqué una entrada en su momento, aparece en este vídeo:

La WoW Room se utiliza habitualmente en ese contexto: una sala en la que el profesor está solo – no conviene que haya nadie más, entre otras cosas para no confundir a la cámara que sigue tus movimientos – y los alumnos en remoto, cada uno en su casa o en el sitio desde donde se estén conectando, con su navegador. He impartido varias clases en la WoW Room, y en efecto, la experiencia, una vez acostumbrado y haciendo algunas abstracciones, es bastante comparable a la de una clase normal: una interacción con los alumnos muy directa, muy viva, y con algunas posibilidades adicionales muy interesantes de cara al aprovechamiento de la interacción. Un aula con un funcionamiento sorprendentemente sencillo, con pocas complicaciones derivadas del uso de la tecnología, y que genera en el profesor unas sensaciones muy naturales.

Sin embargo, la WoW Room es también otra cosa: un videowall enorme dividido en tres secciones en los que puede abrirse un navegador y administrar de una a tres ventanas de Chrome, cada una con sus pestañas. Si cargas un vídeo en 360º en una ventana en semejante monstruosidad de pantalla, por ejemplo, tienes una experiencia prácticamente inmersiva. Si lo divides en sus tres paneles, puedes dedicar, por ejemplo, uno a una presentación ejecutada en el navegador, y aún tienes otras dos paredes de la U para visualizar lo que quieras en una pantalla enorme que va desde el suelo hasta el techo, con varios metros de ancho. El problema, claro está, es que en este caso estamos diseñando el uso “desde dentro”, no “desde fuera”, lo que obliga a meter a los alumnos en el aula. Por su diseño, teniendo en cuenta el espacio disponible, la WoW Room puede llegar a acomodar hasta dos filas de sillas manteniendo un espacio razonable para el movimiento del profesor o profesores, lo que equivale aproximadamente a unos veinticinco alumnos.

El aula, repito, no fue diseñada con esa idea en la cabeza. Pero está ahí, y había que probarla con algo que tuviera sentido. Pensando qué contenido podría tener sentido mostrar en una pantalla de ese tamaño, se nos ocurrió que un buen candidato podrían ser los gráficos de analítica de redes, esas densas nubes de puntos en las que analizar conexiones. Así que invité a Victoriano a mostrar el tipo de analíticas que puede hacer con sus herramientas, Graphext y Contexto.io, en un grupo, el de Comunicación Corporativa, en el que ese tipo de visualizaciones masivas pueden tener muchísima utilidad: imaginemos, por ejemplo, la búsqueda de influencers en contextos sociales, en la que a partir de unos cuantos ejemplos obvios, un director de comunicación puede entender la estructura de la comunidad que habla de sus productos y de los de la competencia, sus niveles de centralidad y relevancia, sus influencias, o el tipo de enlaces que comparten. Extrayendo datos desde redes como Twitter, LinkedIn, Instagram o páginas web, puede obtenerse una visualización de nodos en los que analizar una comunidad de una manera impresionantemente nítida, con detalles como la representación de las conexiones unilaterales o recíprocas, las anomalías, la evolución de los seguidores, las similitudes y proximidades… para alguien que intenta analizar la estructura de una comunidad, un buen montón de insights con un valor incalculable, con el detalle de que quien mejor valor extrae a ese tipo de representaciones es aquel que entiende tanto la herramienta, como los aspectos que están bajo su lupa. Eso sí: en un monitor normal, hay niveles de zoom o de drill down en el gráfico que pueden llegar a resultar incómodos en su manejo, o en los que pierdes la perspectiva global. Ver esos grafos en un monitor tan desmesuradamente grande tiene obvias ventajas, que justifican el uso de la WoW Room, y que ofrecen a los alumnos una visibilidad y un nivel de comprensión del fenómeno objeto de análisis muy superior al que pueden obtener en un aula normal. El resultado fue una clase interesantísima, con los alumnos capturando muchas de las posibilidades del análisis de grafos y de comunidades sociales, con Victoriano ilustrando el tema con infinidad de ejemplos reales, y con mi propósito de hacerles ver una dimensión de las redes sociales mucho más útil y valiosa para ellos que la habitual completamente satisfecho. No sé si podría haber funcionado en otros casos: la habilidad de Victoriano para hacerse con los mandos de la sala y no “perderse” entre tantos metros cuadrados de monitor tras muy poco tiempo de uso resultó fundamental a la hora de añadir valor a la experiencia.

Contexto.io - IE Business SchoolAquí, para hacerse una idea del tipo de gráficos de los que hablamos, una simple representación de las muchas con las que jugamos, con unas cuantas cuentas asociadas a IE Business School y sus relaciones, con la posibilidad, a partir de ahí, de analizar muchos más aspectos como los temas compartidos, etc. Visto así, el gráfico resulta interesante en cuanto a lo que implica de visualización de la comunidad, pero la utilidad comienza, lógicamente, a partir del momento en que podemos representar el tipo de vínculos, las reciprocidades, la comunicación, los dominios y enlaces que comparten más a menudo, la evolución temporal de la popularidad, etc. Para un director de comunicación, la utilidad resulta evidente, pero también puede pensarse en analíticas de muchos otros tipos y propósitos muy diversos.

En su vertiente de análisis de contenidos pasa lo mismo: una representación, por ejemplo, de los contenidos de mi página permite entender cuáles son mis áreas de interés, cómo se agrupan en torno a temática cada una de mis entradas, cómo son compartidas, qué niveles de interés y discusión despiertan en mis lectores tanto dentro como fuera de la página, etc. A la hora de intentar entender las influencias, intereses o afinidades en torno a un tema determinado, obtenemos un panorama completísimo al que posiblemente dedique en algún momento otra entrada. Y de nuevo, una visualización en la que resulta mucho más sencillo enfocarse si se dispone de una representación en un monitor de gran tamaño.

¿Qué otros usos alternativos existen para un aula como esta? Obviamente, hay límites: la capacidad del aula o su nivel de ocupación, entre otros. Pero otro concepto fundamental es el de qué contenidos tiene sentido mostrar en una infraestructura así, poco habitual y, sin duda, con muchas posibilidades. Nada como poner a una comunidad multidisciplinar de profesores a pensar sobre el tema, en busca de experiencias educativas lo más interesantes y valiosas que sea posible, en el contexto de una educación en permanente y necesario rediseño. Veremos qué más cosas se nos van ocurriendo…

IMAGE: Samuraitop - 123RFGoogle se ha encontrado con un serio problema en el Reino Unido, cuando de repente, el gobierno y algunos grandes anunciantes hicieron pública su decisión de interrumpir la publicidad institucional en YouTube debido a la aparición de anuncios gubernamentales en páginas de vídeos con contenidos calificables como de incitación al odio, racistas, antisemitas, extremistas o de mal gusto.

El problema, que ha obligado a la compañía a prometer controles más rigurosos en el etiquetado de ese tipo de contenidos, hace evidentes las carencias del esquema publicitario que más crece en la red: la publicidad programática o real-time bidding, en la que cada impacto proviene de un proceso de subasta en tiempo real de la audiencia supuestamente cualificada de una página.

La supuesta idea de hacer llegar el anuncio correcto a la persona adecuada y en el momento perfecto, administrada mediante un sistema que permite al más interesado formular el precio más elevado, choca con muchos problemas en su conversión en realidad. Y uno de ellos es tan claro y evidente como que los contenidos no pueden ser definidos únicamente por las audiencias que congregan, y menos aún si cualificamos a esas audiencias únicamente en función de unas pocas variables sociodemográficas. La realidad, como todos sabemos, es mucho más compleja que unas pocas variables.

En el caso de YouTube, resulta evidente que Google tiene un problema: las cifras que mueve, en torno a trescientas horas de vídeo recibidas y publicadas cada minuto que pasa, hacen imposible una supervisión manual: se calcula que serían necesarias unas cincuenta mil personas viendo vídeo constantemente durante ocho horas al día para poder llevarla a cabo. En su lugar, YouTube emplea un sistema de alertas basadas en herramientas para la comunidad de usuarios: cuando varias personas marcan un vídeo como ofensivo, este pasa a un sistema de supervisión manual que podría llevar a varias medidas, desde su eliminación total de la plataforma a su exclusión del sistema de publicidad, pasando por bloqueos locales, exclusión de determinadas audiencias, u otras posibilidades.

El problema para un gobierno o compañía no termina simplemente diciendo “yo no sabía nada” o “no tengo ni idea de en qué sitios sale mi publicidad”, porque aunque nadie tenga por qué asumir que una publicidad determinada suponga el estar de acuerdo con los contenidos de una página, la cuestión va mucho más allá de un simple problema estético: es que con la impresión publicitaria se está contribuyendo a financiar al creador del contenido. De ahí que la idea de que con dinero público o con los beneficios de una marca se estén aportando recursos a causas como el racismo, la xenofobia, el odio, el terrorismo o el antisemitismo, entre otras, resulte tan preocupante.

Por otro lado, la cualificación de los contenidos está lejos de ser el único problema de la publicidad programática. A medida que crece y se generaliza este mecanismo, se está dando lugar a un ecosistema en el que cunde la sensación de que “todo es mentira“: audiencias generadas a golpe de bots, cantidades crecientes de click fraud, reproducciones de vídeo simuladas o inexistentes, analíticas falseadas… hace algún tiempo, escribía en El Español sobre la necesidad de un reset para la industria de la publicidad en general: en muy poco tiempo, la red ha pasado de representar la promesa de un medio perfecto para alcanzar con nuestros mensajes publicitarios a las personas a las que más les pudiesen interesar, a convertirse en una especie de salón de los espejos en el que se fabrica tráfico, se compra tráfico, se vende tráfico y se simula tráfico. 

Una vez más, se cumple la regla general: una vez creado un ecosistema atractivo y sometido a un fuerte crecimiento, no tardan en aparecer aprovechados dispuestos a enturbiarlo, a timar a incautos y a destrozar su propuesta de valor. Nada nuevo bajo el sol.

 

Small data - Antena 3 NoticiasAntena 3 Noticias me llamó hace algunos días para hablar brevemente acerca de small data, una etiqueta acuñada en algunos libros y artículos para llamar la atención de las compañías sobre la analítica a pequeña escala, sobre los detalles obtenidos de conjuntos pequeños de observaciones, a menudo restringidos a una sola persona, que permiten identificar claves o tendencias interesantes.

La etiqueta se ha convertido en una manera de dar énfasis a la importancia del análisis pormenorizado – generalmente por parte de personas, no de máquinas – de conjuntos de datos relativamente pequeños y considerados interesantes, un cierto “manejo fino” al margen o que trata de complementar las reglas derivadas por los grandes algoritmos de machine learning.

El término tiende, de forma errónea, a contraponerse a big data: en realidad, todos los datos que se utilizan en la analítica a pequeña escala suelen ser reutilizado para el análisis algorítmico de macrotendencias, de manera que las dos disciplinas tienen una relación muy directa y forman parte de un todo continuo. Que en nuestra compañía tengamos una buena disciplina de recogida y analítica de datos y que ello nos permita entrenar adecuadamente a nuestros algoritmos de machine learning no implica que, como directivos, no podamos extraer pequeñas muestras o casuísticas concretas para tratar de analizar tendencias, de entender patrones de uso, etc.

Con el auge de la sensorización y de nuevos entornos como los generados por los wearables o la Internet of Things (IoT), la disponibilidad de datos accesibles pasa a ser mucho más elevada, y está dando mucho más sentido a este tipo de analíticas.

Mi conversación con Antena 3 Noticias trató de dar algunas claves genéricas sobre la importancia de la analítica, aunque mi participación final en la pieza, titulada “El milagro del ‘small data’: análisis de pequeñas cantidades de información que ayuda a grandes empresas” quedó, como suele ocurrir, en una pequeña frase. En cualquier caso, aquí dejo unos cuantos enlaces sobre el término para posibles interesados:

 

Manejar un sitio web institucional debe ir más allá del número total de visitantes cada día, pues las interacciones y respuesta del público debe ser considerada para evaluar los resultados de determinada estrategia. En especial dentro de las compañías business to business, las cuales no se centran en el consumidor final, sino en intermediarios.

Analizar el panorama de una industria, así como su mercado actual es posible a través de una herramienta Analytics. Los beneficios de su uso son amplios, donde el tema que más sobresales es la obtención de información sobre el tráfico a determinado sitio web, información que tiene valor para las compañías, en especial aquellas que se enfocan en intermediarios.

El uso de una herramienta Analytics en compañías B2B a determinar cuáles temas dentro de un sitio web son de interes para el consumidor en el medio, en relación estudios de Regalix señalan cuáles son las herramientas que ofrecen información  acertada a empresas business to business, lo cual determinan con base en 561 profesionales de la mercadotecnia que laboran el sector. Te diremos tres de ellas.

1. Predictive analytics: tiene como objetivo optimizar las campañas de marketing y el comportamiento de la página institucional con el propósito de aumentar la respuesta de los clientes.

2. Web Analytics: con la información que ofrece el software, la marca puede determinar cuáles son las áreas web más populares, con lo cual se pueden establecer tácticas para conseguir tráfico.

3. Social analytics: el comportamiento de las personas en social media es estudiado por herramientas como social analytics, pues permite recabar datos sobre como se interactua con diferentes contenidos.

Fuente: Predictiveanalyticsworld.com, payscale, Marketingcharts.

The post 3 programas Analytics que las empresas B2B deben usar appeared first on Revista Merca2.0.