IE InsightsUn pequeño vídeo de cinco minutos que hice hace algunas semanas para IE Insights, rodado en la WoW Room, y que me había olvidado de compartir. Hablo, en español con subtítulos en inglés, de la presión que suponen los nuevos entornos competitivos para las compañías, y de cómo plantearse la preparación de nuestra compañía a la hora de imaginar nuestra actividad en ellos, o de pensar hasta qué punto las compañías que marcan la vanguardia en tecnología podrían convertirse en una amenaza para nuestra actividad. La progresiva expansión del ámbito de actividad de las compañías tecnológicas, sean los clásicos gigantes o pequeñas y ágiles startups, es sin duda una preocupación creciente entre los directivos.

¿Cómo plantearse el nivel de preparación de una compañía ante el cambiante entorno tecnológico? La matriz de intensidad informativa (Porter y Millar, 1985), por ejemplo, resulta una herramienta muy interesante a la hora de plantear arquitecturas de datos para una compañía, en función de la cantidad de información que puede generarse a partir de su producto o servicio, y de la cantidad de información que se mueve a través de su cadena de valor. Del mismo modo, variables como el nivel de permiso (Godin, 1999), que evalúa las posibilidades que tenemos de procesar esa información en un entorno de respeto a nuestros usuarios y a la ley, intentando construir una propuesta de valor que nuestros clientes estén dispuestos a aceptar sin verla como una posible amenaza a su privacidad. Y, finalmente, el nivel de preparación para el desarrollo de arquitecturas analíticas de machine learning (Breck et al., 2017), en función de las habilidades que tenemos a nuestra disposición, y que podrían determinar necesidades de planes de contratación o de formación interna.

Una perspectiva rápida del tipo de ejercicios y análisis que las compañías pueden hacer a la hora de plantearse su continuidad y su futuro, o sus posibilidades de seguir haciendo lo que hacen en un entorno en el que los posibles competidores ya no son siempre los sospechosos habituales, sino que salen de debajo de las piedras y con todo tipo de formas y colores variados.

 

IMAGE: Freestocks.orgLas cadenas de televisión de toda Europa intentan alianzas múltiples que combinan todo lo combinable, incluso rivales de toda la vida, con el fin de intentar enfrentarse mediante plataformas online a servicios como Netflix o AmazonPrime. En Francia se llama Salto, en UK es Freeview, en España es LOVEStv, en Alemania aún no tiene ni nombre. En los Estados Unidos, AT&T, la nueva propietaria de HBO tras la adquisición de Time Warner, está intentando desesperadamente hacerla crecerintroducir cambios en el servicio para convertirla en algo más parecido a Netflix, un movimiento muy interesante cuando hace unos seis años, antes de que Netflix comenzase su estrategia de creación de contenido original, Netflix afirmaba que su estrategia era “convertirse en HBO más rápido que HBO pueda convertirse en nosotros“.

Todos esos intentos están destinados al fracaso. Lo dije ya en una frase hace algunos años a cuenta de otro tema, pero que resulta perfectamente aplicable a este: el valor de la innovación no está en evitar que te copien, sino en conseguir que todos te quieran copiar. Y Netflix, sin duda, lo ha conseguido. Todos la quieren copiar, pero copiarla únicamente está al alcance de compañías muy especiales, completamente obsesionadas con la tecnología y el análisis de datos, no de cualquiera, por muchos contenidos o capacidad para producirlos que pueda tener.

Para entender Netflix, me ha parecido fantástico este análisis largo del ex-director de estrategia de Amazon Studios, Matthew Ball, publicado en tres capítulos en los que explica, primero, que la compañía en realidad invierte mucho más en desarrollo de contenidos de lo que muchos creen; segundo, que Netflix es por encima de todo una compañía tecnológica; y tercero, que con sus multimillonarios acuerdos de contenidos, Netflix no está haciendo nada alocado ni rompiendo el techo del mercado, sino jugando a un juego al que nadie más se atreve a jugar. Estos tres artículos largos deberían convertirse en lectura obligada para todo directivo de empresas audiovisuales que aspire a seguir siéndolo dentro de pocos años, aunque lo más posible es que pueda hacer poco más que frustrarse y pensar lo que le gustaría que su compañía fuese y no es – o si tiene las habilidades oportunas, pensar en salir corriendo para intentar ser fichado por Netflix o Amazon.

En efecto, entender Netflix implica entender lo que puedes hacer con una plataforma de alcance tan ilimitado como millones de suscriptores consiga tener en todo el mundo, y sobre todo, con una capacidad analítica que le permite apostar lo justo, arriesgando únicamente lo que los números le dicen que puede arriesgar, y dejando muy poco a la intuición de sus directivos. Cuando Netflix ofrece un acuerdo multimillonario a Shonda RhimesRyan Murphy o a Barack y Michelle Obama, no lo hace porque a algún directivo se le ha ocurrido esa posibilidad y arriesga a que será capaz de producir un contenido multimillonario que compense los costes de producción, sino porque los datos le dicen que un contenido de unas características determinadas va a resultar irresistible para un número determinado de suscriptores. Suscriptores con nombre y apellidos, con dispositivos múltiples con los que acceder a sus contenidos, con hábitos y gustos que la compañía conoce perfectamente y es capaz de anticipar. Netflix no solo sabe cuáles de sus series vas a ver, sino que es incluso capaz de anticipar con qué cadencia vas a verlas, si esperarás semana a semana por cada nuevo episodio o si te pegarás un atracón de binge-watching en un fin de semana sin levantarte del sofá. Es la culminación de la supremacía de un modelo analítico sobre uno tradicional: para saber lo que quieren sus clientes y cuánto están dispuestos a pagar por ello, Netflix no necesita hacerles encuestas, consultar servicios de control de audiencias o ver los comentarios que dejan en Twitter o en su página web – comentarios que, de hecho, está eliminando por considerarlos inútiles: le basta con analizar los datos que ya tiene en su propia casa.

A lo largo de los últimos cinco años, la base de suscriptores de Netflix ha crecido a un ritmo medio del 29%, sus ingresos se han incrementado a una media del 35%, y sus gastos en creación de contenidos se han elevado más aún, con una media del 39%. La compañía pierde más dinero cada año que pasa, y su fundador, Reed Hastings, ha prometido que esas pérdidas se mantendrán durante muchos años. Y sin embargo, la capitalización de la compañía excede los 176,000 millones de dólares y mantiene una marcha impresionantemente ascendente. Si vemos las cuentas de la gran mayoría de las cadenas clásicas de televisión, mucho me temo que responden a esquemas muy diferentes.

Netflix lleva veinte años haciendo lo que hace: antes de la popularización de internet, lo hacía enviando DVDs por correo postal. Después, fue eliminando ese servicio e invirtió en un medio que le permitía acercarse tanto al usuario, que podía prácticamente estar a su lado, viendo todo lo que hacía, en tiempo real: sus gustos, sus hábitos, sus intereses… para ahora, ser capaz de ofrecer a cualquier creador de contenidos la posibilidad de poner esos contenidos directamente ante los ojos de millones de usuarios en todo el mundo, sin intermediarios, sin pasar por una cadena de valor anticuada y unos esquemas geográficos que, en plena era digital, no hacían más que destruir cantidades ingentes de valor. La carrera para convertirse en Netflix no implica alianzas entre rivales históricos, creación de servicios en la web o acuerdos para la producción de contenidos: implica una nueva mentalidad, una fortísima transformación digital y un cambio en la forma de entender el negocio que está completamente fuera del alcance de la gran mayoría de las compañías tradicionales de televisión. Como bien dice Ball, la compañía no quiere ser ni “un líder en vídeo”, ni “el líder en vídeo”: quiere convertirse en la televisión. Entender lo que hace Netflix y, sobre todo, cómo lo hace implicaría un cambio tan grande para los directivos de las televisiones del siglo pasado, para esos que aún creen que el negocio consiste en martirizar a sus usuarios con cuantos más anuncios sea posible antes de que pierdan la paciencia y se vayan a otro sitio, que tendrían que pasar por un trasplante de cerebro para conseguirlo.

 

IMAGE: Nick Youngson CC BY-SA 3.0 ImageCreatorGoogle ha publicado su declaración de principios con respecto a la inteligencia artificial, un texto cuidado, de propósito necesariamente amplio y que pretende cubrir todos los supuestos acerca de los posibles usos de su tecnología. La declaración constituye un documento breve y de lectura muy recomendable que, sobre todo, plantea muchas reflexiones sobre el mundo al que nos dirigimos y las reglas que, necesariamente, debemos plantearnos de cara a su evolución.

La compañía llevaba tiempo trabajando en una reflexión de este tipo, del mismo modo que se está trabajando mucho en este sentido en otros ámbitos: aquellos que afirman que la publicación del documento es una reacción a la reciente dimisión de una docena de trabajadores y la petición firmada por varios miles más en protesta por la participación de la compañía en el Proyecto Maven del Departamento de Defensa, destinado a reconocer imágenes tomadas por drones en el campo de batalla, o bien no conocen a la compañía, o confunden claramente los factores coyunturales con fundacionales, la forma con el fondo. La regulación de la inteligencia artificial no es un tema en absoluto nuevo, se está discutiendo en numerosos foros, en algunos de los cuales participo personalmente, y Google, como uno de los actores más relevantes y avanzados en este tema, no ha hecho más que poner en negro sobre blanco una declaración de principios que proviene de un proceso de reflexión largo y continuado en el tiempo.

Probablemente influenciados por la coincidencia en el tiempo de esas dos circunstancias, la mayor parte de los titulares que leerás en las noticias se refieren a la importancia de la declaración de Google describiéndola de manera simplista como “Google promete que su AI no será utilizada para el desarrollo de armas o violaciones de los derechos humanos“, cuando la realidad es que basta una lectura superficial del documento para entender que sus intenciones van mucho más allá. La mención a las armas, de hecho, ocupa un muy breve espacio en una sección de propósito aclaratorio titulada “AI applications we will not pursue”, y se limita a decir que la compañía no trabajará en “armas u otras tecnologías cuyo principal propósito o implementación es causar o facilitar directamente lesiones a las personas”, pero que “seguirán trabajando con gobiernos o con los militares en otras áreas que podrán incluir ciberseguridad, entrenamiento, reclutamiento militar, cuidado de salud para veteranos o búsqueda y rescate”.

¿Qué es lo importante, por tanto, en la declaración de principios de Google? En primer lugar, la importancia de llevar a cabo esta reflexión en todos los ámbitos, y de hacerlo de una manera no tremendista, bien informada, y con un adecuado nivel de realismo, sin imaginarse robots asesinos en escenarios apocalípticos que nos atacan en cada esquina, o supuestas inteligencias superiores que deciden librarse de los humanos porque les resultan molestos. No, cuando hablamos de inteligencia artificial no hablamos de inteligencia de propósito general, y no lo haremos durante mucho tiempo, porque inteligencia artificial, a día de hoy, no es eso. De manera realista, hablamos en realidad de aplicaciones que tienen más que ver con qué productos son ofrecidos a qué clientes potenciales, con políticas de pricing, con la prevención del abandono o churn, la detección de posibles patrones de actividad fraudulenta, las opciones en la determinación del marketing mix, y sin duda, cada vez más cosas. Menos morboso que los robots asesinos, sin duda, pero enormemente importante y con un potencial muy importante para hacer las cosas mal.

De ahí que uno de los puntos más relevantes declaración de principios, que incluye cuestiones como “ser socialmente beneficioso”, “evitar la creación o el refuerzo de sesgos”, “ser responsable ante las personas”, “incorporar principios de privacidad” o “ser puesto a disposición para usos acordes con estos principios” (lo que implica impedir su uso a quienes no los respeten), me han parecido puntos como el “mantener altos estándares de excelencia científica” o, sobre todo, “ser construido y probado con seguridad”: muchos de los problemas que la tecnología está planteando a medida que avanza provienen no del hecho de que se diseñe con objetivos potencialmente perjudiciales, sino al hecho de que se gestione de manera incorrecta, con una seguridad inadecuada, con errores graves en los procedimientos o sin tener en cuenta que en el mundo existen, obviamente, personas malintencionadas o con intereses oscuros. No, el “Oooops!”, la candidez o la ingenuidad sin límites no pueden seguir sirviendo como disculpas cuando hablamos de desarrollo de tecnologías con un potencial importante para usos perjudiciales o malintencionados, y Google reafirma su compromiso de cara a este tipo de problemas, un compromiso que que va mucho más allá del “no seremos malvados”. Esto, por supuesto, no exime a la compañía de la posibilidad de cometer errores, que pueden suceder en cualquier proceso, pero si reafirma una importante voluntad de no cometerlos, de someterse a procesos rigurosos y de tratar de evitarlos a toda costa. 

La reflexión sobre los principios éticos asociados al desarrollo de algoritmos de inteligencia artificial es importante, y va a producirse a todos los niveles. Tan importante como llevarla a cabo es conseguir que se produzca en el ámbito adecuado, alejada de ignorantes que desconocen completamente lo que es la inteligencia artificial y que, con mentalidad tremendista, creen que hablamos de HAL, de Skynet o de robots Terminator que vienen del futuro para asesinar a Sarah Connor. Permitir que personas no preparadas o que no entienden el desarrollo de machine learning e AI se impliquen en la redacción de los principios éticos que gobernarán su futuro es un absurdo conceptual que, sin duda, nos llevaría a visiones restrictivas y a intentos inútiles de detener el futuro. Esto incluye, sin duda, a la política: que el pueblo te elija para supuestamente representarle no implica que estés preparado para opinar – o peor, para legislar – sobre todos los temas. Si no se sabe de un tema, es mejor y más productivo para todos que se ejerza la responsabilidad necesaria para reconocerlo, abstenerse y solicitar la implicación de quienes sí lo dominan.

No es lo mismo, indudablemente, llevar a cabo una reflexión sobre los principios éticos que deben regir el desarrollo de la inteligencia artificial en Google, uno de los principales actores en el tema, que la está integrando en absolutamente todos sus productos y que se ha caracterizado precisamente por llevar a cabo una ambiciosísima iniciativa de formación de la práctica totalidad de sus empleados en esta disciplina, que tratar de desarrollarla en un gobierno, en un organismo supranacional o en cualquier otro entorno político en el que el conocimiento del tema está entre lo nulo, lo superficial y lo directamente alarmista. Reflexiones de ese tipo se van a intentar hacer en todo tipo de foros, y lo que más me interesa de ellas no son sus resultados, sino el proceso por el cual se lleven a cabo y las consecuencias que se pretenda que puedan tener.

Plantear interrogantes sobre el futuro y tratar de evitar consecuencias potencialmente negativas o no deseadas es una cosa, que si se hace con el rigor y la disciplina que Google ha puesto en ello, puede ser interesante y provechoso. Perseguir fantasmas y prohibir cosas por si acaso en alguna esquina aparece Terminator entre resplandores y nubes de humo es otra muy diferente, y nos puede llevar a verdaderas tonterías e intentos de detener el progreso y la evolución natural de la humanidad. Cuidado con los miedos irracionales, la desinformación, y con sus primos, la demagogia y el populismo. En el desarrollo de principios razonables y con sentido sobre el desarrollo de algoritmos de inteligencia artificial se juega una parte importante de nuestro futuro. La inteligencia artificial es cuestión de principios, sí. Pero de principios bien hechos.

 

IMAGE: Janajech - Creative Commons BY SADos artículos largos muy recomendables hablan sobre la evolución de la publicidad en la red y cómo pasó de ser una actividad que meramente trasladaba el negocio del papel a la pantalla, y pasó a ser el dominio de la matemática, la estadística y la analítica. Por un lado, Adrianne Jeffries incide en el origen de la publicidad programática, la que a día de hoy crece de manera más pronunciada en prácticamente todos los mercados, y su origen por parte de Right Media en 2005, en How to succeed in advertising (and transform the internet while you’re at it). Por el otro, Ken Auletta describe en How The Math Men overthrew The Mad Men o detallando cómo los “math men” destronaron a los “Mad Men” e incide en el cambio de los perfiles requeridos para trabajar en una industria a la que la transformación digital ha llegado decididamente para quedarse – con todo lo que ello conlleva. Me han parecido lecturas imprescindibles para cualquier que aspire a entender tanto el panorama de la publicidad en la red, como para quienes busquen referencias para anticipar el efecto de la automatización, la algoritmia y el machine learning sobre cualquier industria.

¿Cómo se decidía, hace algunos años, el mix de medios en los que se programaba una campaña? Básicamente se dependía de agencias de medios. Una industria con una marcada tendencia a la opacidad y la ocultación de información, que no solo vive de la intermediación entre anunciantes y soportes, sino que además, lo hace infringiendo una de las reglas fundamentales de la teoría de agencia: además de hacer una labor de agente supuestamente a favor del anunciante, las agencias también cierran acuerdos con las publicaciones, a las que demandan el pago de extratipos o comisiones por volumen, lo que impide que esa labor de intermediación tenga lugar en términos transparentes. Bajo unas condiciones así, el anunciante nunca puede saber si los medios que la agencia le recomienda son los que realmente convienen para exponer su mensaje al segmento al que debe llegar, o si simplemente la agencia, como ocurre en algunos casos, se limita a recomendarle los medios que le ofrecen un extratipo más elevado, una mejor comisión.

¿En qué se ha convertido, en un número creciente de casos, esa actividad? En un proceso, la compra programática, en el que la intervención humana se reduce únicamente a la determinación del target y de una serie de restricciones, mientras la plataforma ofrece oportunidades de compra y las asigna en función de una subasta en tiempo real. En una sola generación de desarrollo algorítmico, las personas hemos pasado a ser relativamente prescindibles en el flujo productivo de la industria publicitaria, en las decisiones del día a día del tipo “lancemos esta campaña aquí o allí”, y muchos de los procesos han pasado a depender únicamente de la interacción entre anunciantes y soportes dentro de una plataforma publicitaria.

Sin embargo, esto no ha determinado ningún tipo de éxodo o apocalipsis: la transformación se ha dado de una manera razonablemente ordenada, las compañías han ido incorporando – en la mayoría de los casos – o formando – en menor medida – los perfiles que necesitaban, se han creado nuevos puestos, y se ha reducido el papel de algunos intermediarios que, en el nuevo contexto, ya no aportaban valor ni valían en absoluto lo que pretendían cobrar. Esos intermediarios no han desaparecido, y se mantienen básicamente gracias a los hábitos de anunciantes que aún no se han dado cuenta o ha entendido que el mundo ha cambiado, que simplemente no quieren complicaciones ni riesgos de ningún tipo, o que prefieren sacrificar margen a perder familiaridad con los procesos de negocio que han conocido durante toda su vida profesional. Han surgido nuevos intermediarios, no todos transparentes ni honestos, que van desde los que controlan flujos de tráfico hasta los que lo fabrican, lo falsean y lo venden, y la industria, sencillamente, ha cambiado hasta el punto de que si alguien que trabajase en la publicidad durante la primera década del siglo fuese descongelado en la segunda, seguramente tendría graves problemas para desempeñar su actividad, y se encontraría con que sus habilidades ahora cuentan bastante poco.

Una metáfora interesante para las industrias en reconversión de la mano de la transformación digital: los mercados son muy grandes, hay muchos participantes que cambian a muy distintos ritmos – como muy bien dijo el escritor de ciencia-ficción canadiense William Gibson, “el futuro ya está aquí, solo que no está uniformemente distribuido” – y eso lleva a que sean muy pocos los casos en los que se generan verdaderos cataclismos apocalípticos, provocando que se hable más de evoluciones que de revoluciones. ¿Ha cambiado la industria de la publicidad? Sin duda, y le queda aún mucho por cambiar, por evolucionar y por equilibrar. Se ha producido una reconversión importante, y en muchos casos – no en todos – para bien. Sigue habiendo, como en todas las industrias, actores buenos, malos y regulares, aunque la tecnología utilizada haya cambiado y la trazabilidad debiera ser, supuestamente, mucho mayor. Sin embargo, esa heterogeneidad en la adopción hace que hoy puedas montar un diario en cualquier sitio, simular una gran audiencia adquiriendo flujos de tráfico completamente falsos y que no se corresponden con usuarios reales o interesados en lo que publicas, e incluso llegar a adquirir un cierto nivel de influencia basada en esa simulación de la realidad.

¿Hemos mejorado? Depende para quién. Pero de nuevo, la tecnología no se desinventa, no se detiene, y sus propuestas terminan siendo adoptadas por mucho que algunos pretendan resistirse a ellas. Cambios que no traen ni infiernos, ni paraísos: solo nuevos contextos a los que adaptar la actividad de todos aquellos que sepan hacerlo. La vida sigue. Si tienes dudas sobre la transformación digital y sus efectos sobre las industrias, estudia la experiencia de la evolución de la publicidad.

 

IMAGE: Ilya Akinshin - 123RFAlgunos bancos norteamericanos afirman estar teniendo problemas con sus algoritmos de machine learning para funciones con trascendencia de cara al cliente, tales como los que se encargan de tomar decisiones de riesgo en la concesión de créditos: a medida que la complejidad de los modelos empleados aumenta, la interpretabilidad de esos modelos disminuye.

El resultado es que los bancos se encuentran con modelos muy eficientes, que posiblemente mejoran de manera tangible los ratios previos de morosidad o los porcentajes de créditos impagados, pero que son básicamente una caja negra, un modelo de difícil explicación susceptible de generar problemas de diversa naturaleza. Como comenta en el artículo Hari Gopalkrishnan, directivo de tecnología en Bank of America,

“en el negocio bancario no nos gusta la falta de transparencia y de las cajas negras, donde la respuesta es simplemente ‘sí’ o ‘no’. Necesitamos entender cómo se toma la decisión, para poder respaldarla y demostrar que no estamos desfavoreciendo a nadie.”

Este problema, que habíamos comentado en una entrada de hace algo más de un año que escribí a partir de una serie de conversaciones con mis amigos de BigML, compañía en la que colaboro como asesor estratégico, es algo con lo que es muy posible que muchas compañías se encuentren a medida que progresan en sus desarrollos de machine learning. Existe una cierta tendencia a avanzar tratando de utilizar los modelos más sofisticados a nuestro alcance, sin tener en cuenta que a medida que se incrementa la complejidad de los modelos y la cantidad de datos utilizados, tiende a incrementarse también la dificultad para su interpretación.

En fases iniciales o en el prototipado rápido de proyectos de machine learning, en los que se busca obtener una representación del problema razonablemente buena aunque no esté completa ni perfectamente ajustada, se tiende a recurrir a modelos como la regresión logística o los árboles de decisión, que ofrecen una interpretabilidad razonable con una complejidad escasa y con períodos de entrenamiento no excesivamente largos. A medida que avanzamos hacia las fases intermedias del proyecto, en las que buscamos ya aplicaciones con resultados más optimizados y probados, se suele evolucionar hacia modelos más complejos y con mejor representación como los basados en decision forests, que cuando vamos alcanzando las fases finales en las que las prestaciones del algoritmo ya resultan críticas, pueden evolucionar hacia metodologías como los boosted trees y las deepnetsdeep learning. El atractivo de esa progresión resulta evidente dado que tiende a mejorar la representación, el ajuste y la performance del modelo, pero la contrapartida también es evidente: esas ganancias tienen lugar a costa de mayores tiempos de entrenamiento y, sobre todo, de una interpretabilidad cada vez menor. Cuando el modelo ya alcanza un cierto grado de complejidad, las posibilidades de poder correlacionar un resultado con sus variables de entrada se reducen sensiblemente, la interpretación de la causalidad se hace más difícil, y poder demostrar que esa decisión no se ha tomado en función de un criterio potencialmente discriminatorio se vuelve una fuente de posibles problemas que, dada la legislación existente expresada en leyes como la Equal Credit Opportunity Act, que impiden la discriminación basada en variables como raza, religión, origen, sexo, estado civil o edad, pueden llegar a generar responsabilidades legales. 

El valor del machine learning no está en plantear modelos cada vez más complejos, sino en hacerlo más fácil de usar. Los negocios son procesos complejos, aunque llevemos desde la época de la revolución industrial pretendiendo tratarlos como conjuntos de fenómenos con reglas simples. El problema de la caja negra no es en absoluto trivial, precisa de mecanismos que añadan transparencia al proceso y que intenten llegar a explicaciones sobre las predicciones realizadas por los modelos, y supone una restricción que las compañías deben tener en cuenta a la hora de escalar en sus iniciativas de machine learning. Un proceso largo y complejo, en el que un 90% del esfuerzo se invierte en procesos como la definición de objetivos, el manejo y transformación de los datos y la ingeniería funcional, y tan solo el 10% final corresponde a lo que tradicionalmente consideramos como el resultado: las predicciones y la medición del impacto.

El problema del machine learning a día de hoy no es que no funcione, sino que las compañías tienen dificultades para utilizarlo. Proyectos largos, complejos, pero que vale la pena plantearse porque van a marcar la diferencia entre compañías capaces de utilizar modelos predictivos y las que no lo son y se limitan a tomas de decisiones basadas en cuestiones arbitrarias, en la intuición o en reglas poco científicas, y que progresivamente van a ir pasando de plantearse como servicio, a hacerlo como commodity o incluso como utility… si te has preparado para ello.