Las políticas de moderación de Facebook, una guerra que no pueden ganar de Denken Über

Por primera vez se hacen públicas las políticas internas de moderación de Facebook, no por voluntad propia sino porque The Guardian hizo un gran trabajo publicándolas y explicándolas justo en momentos donde la red social está en la línea de fuego por el contenido que se publica constantemente y mi primer impresión es que están librando una guerra imposible de ganar.

¿Como marcar efectivamente que es bueno y que es malo cuando se generan unos 1.500 millones de “comentarios + fotos + status” al día?

Facebook está en una lucha donde casi 2.000 millones de usuarios tienen diferentes opiniones, educación y límites morales, donde podemos estar de acuerdo en que hay cosas intrínsecamente malas pero donde la decisión debe ser casi instantánea ¿un ejemplo? creo que es casi imposible reaccionar en menos de 10 segundos desde que una pieza de revenge porn se publica hasta que se extiende… y además ¿como definís una política global capaz de definir que es publicable y que no?

politica de porno de venganza
Definitivamente una definición vaga e inaplicable

Pero si es límite es dificil de “definir” para crear una política accionable ¿como definís una política donde la violencia es peligrosa o es simplemente “permisible” como discurso? ¿en base a la violencia intrínseca? ¿en base a la “credibilidad” de la frase? ¿del contexto? esta es una batalla realmente casi increíble… donde incluso los ejemplos oficiales son un desastre: “Someone shoot Trump” es no-permisible pero permitís explicar que: “To snap a bitch’s neck, make sure to apply all your pressure to the middle of her throat” ridículo.

violencia aceptable en facebook

Entiendo que la violencia verbal es, muchas veces, resultado de la frustración personal pero la frase de como aplicar presión es simplemente inaceptable.

En definitiva, creo que esta filtración es necesaria para entender como funcionan las políticas de Facebook pero muestra tres cosas a primera vista:

  • Es imposible moderar con la velocidad que necesita una plataforma con este alcance.
  • Las políticas deberían ser públicas para que se pueda “crear conjuntamente” o al menos ser “opinables” de forma pública.
  • La inteligencia artificial no puede, al menos ahora, entender contexto, ironía, intención, etc.

Mientras tanto conviviremos con definiciones como “We do not action photos of child abuse. We mark as disturbing videos of child abuse. We remove imagery of child abuse if shared with sadism and celebration.”

HousepartyMi columna en El Español de esta semana se titula “Facebook y la paranoia“, y trata de explicar la importancia de estar completamente alerta y pendiente de las variaciones del entorno, preparado para tomar decisiones si se percibe algún tipo de cambio en las tendencias.

Facebook es el ejemplo perfecto de estrategia basada en la paranoia, en la atención prácticamente obsesiva al entorno y a sus cambios. Para cualquier compañía, desarrollar su actividad dentro del entorno competitivo definido por las redes sociales resulta sumamente complejo: las variaciones de las tendencias son constantes, los cambios en los gustos y las preferencias, los nuevos entrantes… hoy estás en la cresta de la ola, mañana te han olvidado.

Situaciones de ese tipo las hemos visto con redes sociales como MySpace, que pasó de ser considerada el símbolo de toda una generación y de generar más páginas vistas que Google, a tener un uso prácticamente marginal en cuestión de meses, u otras como Friendster u Orkut, que se encontraron de repente y sin haberlo planeado como sujeto de las preferencias masivas en países como Malasia o Brasil respectivamente, y pasaron de intentar una estrategia global, a no poder hacerlo por ser percibidos como fenómenos locales en los que predominaba muy claramente un idioma o una cultura determinada susceptible de generar procesos de alienación en usuarios de otros países.

No entender este tipo de fenómenos y, sobre todo, su velocidad, llevaron a compañías como News Corp. o AOL a perder varios centenares de millones de dólares cuando, tras adquirir redes como MySpace o Bebo respectivamente por $580 millones y por $850 millones, terminaron malvendiéndolas por 35 o por 10 millones tan solo unos pocos años después. Como en 2012 comentaba Rupert Murdoch en Twitter tras anunciar la venta,

“Many questions and jokes about My Space. Simple answer – we screwed up in every way possible, learned lots of valuable expensive lessons.”

(Muchas preguntas y chistes sobre MySpace. Respuesta simple – la cagamos de todas las formas posibles, y aprendimos muchas valiosas y caras lecciones)

En efecto, las redes sociales definen un entorno tan dinámico, tan cambiante, tan caprichoso y tan inestable, que desarrollar cualquier actividad en él tiene que provocar necesariamente un estrés permanente, una hipertrofia de los sentidos, de la capacidad de alerta. Es un entorno en el que, parafraseando el libro de Andy Grove publicado en 1996, “solo los paranoicos sobreviven“: cualquier cosa puede cambiar en muy poco tiempo, y en muchos casos no debido a una razón fácilmente explicable, sino a una simple moda pasajera o a una percepción difícil de detectar.

Facebook sabe perfectamente en qué entorno opera, y actúa en consecuencia, lo que la ha llevado a encadenar ya trece años de evolución positiva y a una valoración de casi 420,000 millones de dólares. Podemos imaginarnos a su fundador, Mark Zuckerberg, sentado en lo alto de una altísima pirámide, desde la cual puede, con un simple movimiento de cuello, ver lo que hacemos casi dos mil millones de personas en todo el mundo. Qué leemos, qué compartimos, qué comentamos… todo. Desde esa privilegiada atalaya, detectar la creciente popularidad de fenómenos como Instagram, WhatsApp o Snapchat es cuestión simplemente de estar atento, aunque es bien sabido que las señales solo lo son para aquel que está preparado para interpretarlas. Pero en cuanto Mark Zuckerberg vio que algunos segmentos sociodemográficos comenzaban a utilizar esas aplicaciones, supo rápidamente que tenía que hacer algo si no quería verse desplazado en un entorno tan sumamente volátil. Así que lanzó ofertas de compra por las tres, con el resultado ya conocido: se hizo con Instagram y WhatsApp, y vio como Snapchat rechazaba su oferta de tres mil millones de dólares. Desde entonces, ha intentado copiar la funcionalidad de Snapchat en hasta cuatro ocasiones, hasta acertar en la última de ellas, Instagram Stories, que ya ha logrado superar a la propia Snapchat en número de usuarios activos.

En entornos tan dinámicos, ese comportamiento paranoico, esa vigilancia hiperactiva y constante es prácticamente puro sentido común. La imagen que acompaña a esta entrada pertenece a Houseparty, una app de vídeos en grupo lanzada a finales de septiembre del año pasado por los creadores de Meerkat. Houseparty está creciendo en popularidad entre jóvenes en Estados Unidos, Canadá y algunos otros países, que la utilizan para comunicarse en múltiples ventanas de vídeo en tiempo real, que se muestran con una calidad bastante alta. La popularidad aún no es especialmente masiva, es simplemente un fenómeno creciente, pero ayer, comentándolo en una de mis clases, la respuesta de una alumna que la utilizaba habitualmente fue tan sencilla y directa como “it’s supercool!”.

¿Qué hacer en un caso así si estás sentado en esa pirámide y tienes la oportunidad de ver surgir y crecer algo que tiene posibilidades de convertirse en un fenómeno, y que tiene detrás a los fundadores de una app que, además, ya lo consiguió anteriormente? Meerkat fue la primera app que fue capaz de generar popularidad en torno al fenómeno del livestreaming, el vídeo en directo, se convirtió en la sensación del SXSW de 2015, y únicamente cedió en su popularidad ante la competencia de Periscope, una app similar lanzada desde Twitter, que terminó por provocar el cierre de Meerkat.

Facebook lo tiene claro: para tomar decisiones, es fundamental entender el fenómeno. En este momento, es prácticamente imposible saber si apps como Houseparty van a convertirse en un fenómeno masivo o van a ser simplemente algo minoritario, o una moda pasajera que desaparezca en breve. Saberlo implica trabajo de campo, investigación, información. Así, ha lanzado una encuesta a usuarios de entre 13 y 17 años, preguntándoles si utilizan Houseparty u otra app similar, Fam, que se describe como “un FaceTime de grupo”, y proponiendo a esos jóvenes contestar algunas preguntas y formar parte de un focus group en las oficinas de la compañia en Menlo Park, a cambio de un pequeño incentivo económico. Si lo que está en ciernes es un fenómeno masivo, algo que a día de hoy aún resulta muy difícil saber, Facebook quiere estar al tanto y enterarse lo antes posible, porque la decisión resultante puede implicar decisiones como la de lanzar una oferta de adquisición a la compañía o intentar replicar su funcionalidad.

La paranoia se está convirtiendo en un elemento más de la estrategia empresarial. En entornos que se mueven cada vez más deprisa, la paranoia es una consecuencia prácticamente lógica, una línea de defensa fundamental. Pero ojo… se me ocurren cada día más industrias en las que la paranoia se está convirtiendo en un elemento necesario y fundamental. Si crees que esto solo afecta a Facebook, o solo al entorno de las redes sociales, es muy posible que te equivoques. Es más: es muy posible que sea ya demasiado tarde.

Google: la voracidad de un gigante insaciable - ForbesLucía Caballero, de la edición española de Forbes, me llamó por teléfono para hablar de Google y de sus adquisiciones, de la idea de una compañía que supuestamente adquiere sin parar todo aquello que se le pone por delante, y me cita en su reciente artículo, titulado, “Google: la voracidad de un gigante insaciable” (pdf).

En mi conversación con Lucía comencé intentando poner las cosas en contexto: Google adquiere muchas compañías de muy diversos tipos, sí, pero sigue una pauta que no resulta especialmente llamativa con respecto a otras compañías de su entorno. Las estrategias basadas en la adquisición son muy habituales en escenarios de dinamismo elevado, y la tecnología, indudablemente, lo es. Desde su primera adquisición en febrero de 2001, Google, ahora Alphabet, ha adquirido un total de 207 compañías, y desde el año 2010 ha llegado a adquirir más de una compañía por semana. Pero sus magnitudes resultan razonablemente comparables con las de otras compañías de su ámbito: Facebook ha adquirido 62 compañías tan solo desde el año 2007, Microsoft ha adquirido 202 desde 1987, Amazon, 72 desde 1998, y Twitter, a pesar de no haber generado nunca beneficios, nada menos que 54 desde 2008.

En efecto, Alphabet adquiere más y más rápidamente, con una filosofía de hacerse con aquello que necesita y que o bien no encuentra en un desarrollo de código abierto, o le podría llevar un tiempo diferencialmente más largo desarrollar internamente. Alphabet es fundamentalmente una compañía de ingeniería, con un potencial de desarrollo brutal, y como tal, enormemente pragmática: si adquirir una funcionalidad o un know how determinado va a ser más rápido que desarrollarlo, saca la chequera y lleva a cabo la operación. Pero como tal, lo que posee es una clarísima orientación al resultado: necesito esto, lo adquiero, sin que parezca existir después una estrategia clara de integración de esas adquisiciones o, en muchos casos, siquiera una preocupación por lo que queda de la compañía adquirida o de sus integrantes. Así, es muy habitual escuchar casos de compañías adquiridas por Alphabet que, al cabo de poco tiempo, ven cómo sus fundadores simplemente “toman el dinero y corren”, y en general, las historias de fundadores de compañías adquiridas por Alphabet que hayan desarrollado una carrera directiva en la empresa de Mountain View son más bien escasas.

La estrategia de otras compañías, como Facebook o Twitter, es completamente diferente. Operaciones centradas en hacerse con lo que necesitan, sí, pero destinadas en muchísimos casos a la incorporación de talento, de equipos capaces de seguir con sus planes tras materializar sinergias dentro de la compañía, de dotar a esos fundadores de muchos más medios y potencia de desarrollo para que persigan sus fines, y sobre todo, de integrarlos muy cuidadosamente y motivarlos para evitar un drenaje de talento. Frente al pragmatismo de Google, por acción o por omisión, este tipo de compañías ofrecen una imagen muy diferente, y posiblemente más sostenible en el tiempo.

Sobre el tema, sobre lo que intentamos obtener en las adquisiciones corporativas, sobre las adquisiciones como ciencia o sobre la idea de saber comprar he escrito en numerosas ocasiones, generalmente al hilo de alguna operación de adquisición, y es un tema que considero fundamental en la estrategia corporativa. ¿Es Google, como afirma el artículo de Forbes, “voraz”? Sin duda lo es, y los datos lo avalan de forma concluyente. Pero ¿obtiene la compañía todo el jugo y el provecho que podría obtener de sus adquisiciones? Desde mi punto de vista no es así, y encuentro filosofías de adquisición en otras compañías de la industria que, por planteamiento, me resultan mucho más atractivas, y parecen generar entornos de trabajo y culturas más inclusivas, más enriquecedoras y con más posibilidades de cimentar una ventaja sostenible.

En una compañía como Alphabet, con reputación de cool e innovadora, y con un enfoque enorme a las personas, un planteamiento así de las operaciones de adquisición resulta llamativo, como una cierta mancha en el expediente. Pero también es cierto que a lo largo de los últimos años, hemos ido también pasando de ver a la compañía como un objeto de deseo para cualquiera y un lugar increíble para trabajar, a verla como un sitio que, aunque indudablemente mantenga su atractivo, sí pierde a trabajadores valiosos con cierta regularidad: una compañía que podría llegar a tener problemas, si no para atraer talento, sí para retenerlo. Pero como todos los elementos culturales, hablamos de cuestiones sutiles, subjetivas, difíciles de determinar de manera concluyente, de percepciones que muchas veces responden a situaciones de mercado o a la visibilidad de quienes son adquiridos por la compañía o la abandonan. Es difícil, incluso hablando con trabajadores o ex-trabajadores de la compañía, saber si esos elementos son un fruto del crecimiento y la evolución, si son algo que siempre ha estado ahí, o incluso si realmente existen como tales. Pero, en cualquier caso, pueden alimentar reflexiones muy interesantes sobre la evolución de las compañías en el tiempo.

 

IMAGE: Lorelyn Medina - 123RFMi columna de esta semana en El Español se titula “Páginas basura“, y trata de conceptualizar uno de los problemas actuales del periodismo, la abundancia de páginas basadas en el clickbait, el sensacionalismo, el amarillismo y la desinformación, al hilo del reciente anuncio de Facebook de comenzar a “enterrar” en su algoritmo de recomendación de contenidos todas aquellas noticias procedentes de páginas calificadas como de baja calidad.

Las páginas basura son uno de los contenidos que más ha crecido en la web, alimentadas en gran medida por un efecto secundario de algoritmos como el de Google: lo que al principio era un algoritmo interesante basado en la contabilización de los enlaces externos y basado en la traslación a la web del conocido citation index del mundo académico, utilizado desde hace varios siglos, se convirtió, con la popularización de las redes sociales, en una métrica que privilegiaba en exceso lo social sobre la calidad. Peor aún: basándose en métricas como los Likes, los Shares, los retweets, etc., que los usuarios marcaban en muchos casos con un componente muy escaso de introspección o reflexión, lo que debía ser una métrica de relevancia se convirtió, en realidad, en algo que privilegiaba aquella información que más sorprendía, más llamaba la atención o más intrigaba.

El cómo una métrica de relevancia se estropea al pasar a un mecanismo de captación de indicadores supuestamente más democrático es un tema que, como tal, me parece fascinante: en la web de 1990, cuando Google comenzó a escalar en popularidad, las métricas que recogía eran enlaces a páginas con palabras clave (el anchor text) cualificados a su vez en función del número de enlaces entrantes que poseía la página origen, unido a algunos factores más de corrección. Para Larry Page, pasar a la web un algoritmo con el que estaba perfectamente familiarizado, el citation index que le indicaba como estudiante doctoral si un paper académico era o no relevante en función de las veces que aparecía en las referencias de otros papers, fue en realidad una idea genial. El sistema funcionaba: no solo lograba una métrica de relevancia convincente, sino que además, alejaba el control de las manos de los autores de las páginas, lo que lo hacía menos manipulable que los anteriores. Al producirse la popularización de las redes sociales, Google detectó que mecanismos como el Like de Facebook o los trending topics de Twitter podían convertirse en métricas de relevancia más rápidas que la suya, y comenzó a basar su algoritmo cada vez más en este tipo de parámetros. El resultado de privilegiar esas métricas fue una hiperinflación de la web en torno a lo social: las páginas se llenaron de “pegatinas” que pedían el Like, el Share, el retweet o la compartición de todo tipo, y la aparición cada vez más persistente de páginas orientadas a generar esas métricas. A todos los efectos, una concepción errónea de relevancia.

Con el tiempo, Google parece haber ido corrigiendo ese mecanismo: los parámetros sociales llevan tiempo descendiendo en su ponderación, y la compañía parece evolucionar hacia algo como el KBT, del que hemos hablado en otras ocasiones, para determinar una métrica de calidad de las páginas y, consecuentemente, de su relevancia. La consigna es clara: no se puede privilegiar en términos de relevancia a páginas que busquen el clic a toda costa basándose en técnicas que nadie considera bueno privilegiar.

El gran problema de las páginas basura, no obstante, es su heterogeneidad y la laxitud en su definición. Son, en muchos sentidos, como la famosa resolución de aquel juez norteamericano que trataba de explicar si un contenido era o no obsceno con la frase I know it when I see it, “lo sé cuando lo veo”. La medida anunciada por Facebook es, claramente, una manera de intentar determinar precisamente eso: si una página es basura o no, en función de una definición establecida como “páginas que contengan poco contenido sustantivo, cubiertas de anuncios molestos, excesivamente impactantes o maliciosos”. Y si efectivamente lo es, tratar de evitar la posibilidad de que alcance más visibilidad gracias a sus algoritmos.

Las páginas basura son el equivalente en la web del periodismo amarillo y de los tabloides: sin duda, un contenido que tiene sus adeptos, y que en algunos países genera un negocio importante. En su paso a internet, con la disminución de la fricción y con la facilidad para generar métricas de relevancia erróneas, el fenómeno se disparó hasta límites insostenibles. Medidas como las tomadas por Facebook o Google son fundamentales para poner coto a su desarrollo, para mejorar la calidad de la web. El resto de la responsabilidad corresponde al usuario, que si bien debe seguir manteniendo la libertad de poder compartir lo que le venga en gana, debe reflexionar sobre la idoneidad de asociar su imagen con la de páginas de esas características, y desarrollar unas mínimas opciones y criterio sobre la calidad de la información que maneja y comparte.

En cualquier caso, todo indica que las cosas estarán más difíciles para los medios que en su momento, y con una orientación claramente cortoplacista, optaron por ese tipo de tácticas para incrementar su visibilidad. Medidas que tienden a hacer algo muy necesario y positivo: poner las cosas en su sitio y sacar la basura a donde corresponde.

 

This is how Google will collapse - Startup Grind

El mejor artículo que seguramente leerás hoy es este This is how Google will collapse, publicado por Daniel Colin James en Startup Grind: dentro de lo absurdo que puede resultar hablar de “la muerte” de una de las compañías más valiosas del NASDAQ en un momento en el que el precio de sus acciones está en sus máximos históricos desde que salió al mercado en agosto de 2004, y recordando siempre aquella frase de Ruiz de Alarcón, “los muertos que vos matáis gozan de buena salud”, no cabe duda que los argumentos empleados están razonablemente bien ponderados y que lleva a unas ciertas reflexiones indudablemente interesantes.

El primer argumento parece claro: en la web actual, todos tenemos cada vez más destinos que consideramos directos, a los que acudimos de manera sistemática para cubrir ciertas necesidades. Para las noticias, muchos recurren directamente a unas pocas páginas con las que tienen familiaridad, con cuya estructura y sesgo se encuentran cómodos. Para las compras, además de la omnipresencia de monstruos como Amazon, existen muchos otros sitios a los que acudimos directamente, que consideramos referencia o con cuya logística nos encontramos cómodos. Y así, en muchas categorías más: cada vez parecemos necesitar menos un mapa, y la principal actividad de Google es la de ser el gran vendedor de mapas de la web.

Pero, ¿realmente no necesitamos un mapa? No, en realidad lo seguimos necesitando, porque la web se expande constantemente y a gran velocidad como si fuera el big bang. Pero por otro lado, también es cierto que las ocasiones en las que necesitamos ese mapa, el porcentaje de uso que se refiere a lo que conocemos como tráfico de descubrimiento, se reduce a medida que el uso de la web se hace más habitual, y pasa a predominar un acceso más directo a muchas páginas que consideramos parte de nuestro conjunto de recursos, de nuestra caja de herramientas habitual. Que Google “se haga trampas al solitario” y quiera apuntarse como propios los accesos a los que un día, allá en la noche de los tiempos, llegamos mediante su buscador; o peor aún, los accesos de millones de usuarios inexpertos que teclean direcciones web en la barra de búsqueda, no cambia la cosa. En cada vez más páginas, el tráfico evoluciona hacia un predominio de lo directo o lo social, mientras el tráfico de búsqueda tiende a evolucionar a la baja o como mucho a mantenerse estable. Es más: una de las mejores medidas de la calidad de un sitio, cada vez más, es su porcentaje de tráfico directo y social, no el que obtiene a través del buscador, que suelen ser visitas efímeras y poco interesantes. ¿Es esto preocupante para Google? No lo sé, pero sin duda, es una tendencia que indica algo que ya comentamos anteriormente: el negocio transaccional, el cerrar las ventas, es mucho mejor, más sólido y más sostenible que el intangible negocio publicitario de tratar de convencer a alguien para que compre algo.

El segundo elemento es igualmente evidente, y también lo acabamos de comentar hace muy poco: el auge de los bloqueadores publicitarios. Los usuarios hemos hablado, y lo hemos hecho de la manera más clara posible, instalándonos en masa extensiones para bloquear una publicidad que consideramos mayoritariamente basura. Que ahora Google pretenda “salvar la web” convirtiéndose en el adalid que preinstala un bloqueador publicitario en su navegador no oculta la gran verdad: que su negocio es fundamental y mayoritariamente publicidad, y que ayudar a que los usuarios nos libremos de lo que ellos consideran “la mala publicidad” no va a significar necesariamente que aceptemos la suya, la que ellos consideran “buena publicidad”, supuestamente respetuosa con el usuario. Eso es un “veremos” muy grande, un gran “si” condicional, que podría chocar con elementos de alienación, con un más que posible rechazo sistemático a toda la publicidad, sea del tipo que sea. Después de todo, la conciencia de los usuarios con respecto a la sostenibilidad de los negocios, en la web o fuera de ella, es próxima a cero. Y lo que sí es evidente es que los bloqueadores publicitarios han crecido, se han hecho cada vez más importantes sobre todo en los demográficos más jóvenes y con más educación, y que han pasado de ser un fenómeno “de geeks” a algo cada vez más generalizado, tanto en ordenadores como, cada vez más, en smartphones.

En muchos sentidos, la batalla de la publicidad está resultando mucho más compleja para Google de lo que parecía: Facebook ha conseguido configurarse como el francotirador con la mira más precisa y certera, que mejor y más íntimamente conoce a sus usuarios, y que además, merced al control férreo que mantiene sobre su plataforma, puede resistir un poco más el asalto de los bloqueadores de publicidad – aunque no indefinidamente. Con el formato vídeo, Google parece estar teniendo problemas derivados de anunciantes que vetan su plataforma para evitar que sus anuncios aparezcan al lado de contenidos que consideran censurables, algo que Facebook parece gestionar mejor gracias a un modelo de ubicación de la publicidad sensiblemente diferente. No es lo mismo ver la publicidad de tu compañía al lado de un vídeo de contenido cuestionable, que verla en tu timeline porque algún amigo o alguien de tu red la recomendó, por mucho que ese alguien pueda tener una ideología igualmente cuestionable. A los amigos les disculpamos cosas que en otros podemos considerar inaceptables.

El tercer elemento es menos claro, pero igualmente interesante: cuando Google decide pivotar su modelo de negocio desde aquel simple mobile-first centrado en el canal, hacia el machine learning, a pesar de tener muchísimo sentido, llega tarde. Cuando Google se plantea rediseñarlo todo hacia asistentes cada vez más inteligentes que sepan más de nosotros y nos ayuden mejor en nuestro día a día a través de todo tipo de interfaces, se encuentra con que otro gigante, Amazon, no solo lo hizo antes, sino que además, ha conseguido situarse con su Echo como la estrella que marca la tendencia a seguir, la que tiene el mayor parque instalado, y la que evoluciona más rápidamente, ahora ya incluso incluyendo vídeo. Hemos dedicado un buen montón de entradas a Amazon Echo y a la importancia de la voz como interfaz del futuro, y en este tema, Google no marca el paso, sino que es un simple seguidor que lucha desesperadamente por poder estar a la altura de la empresa de Jeff Bezos. Que, además, como se dedica a vender cosas y no simplemente a publicitarlas, encaja mucho mejor con el nuevo modelo y es capaz de financiarlo de manera más sólida. Y todo ello, manteniendo la vista en otros posibles entrantes, como Microsoft, que parece apuntar a prescindir del dispositivo específico y utilizar el PC doméstico para el mismo fin (una estrategia cuestionable, en cualquier caso… un Echo tiene nada menos que siete micrófonos para escucharte perfectamente bien desde cualquier lugar de la habitación aunque haya música sonando, me parece muy difícil suponer que mi PC pueda llegar a funcionar de una manera mínimamente parecida).

¿Significa todo esto que Google vaya a caer, a desaparecer, a morir, o a ser protagonista de cualquier otro escenario apocalíptico? ¿Que debamos plantearnos, como afirma el artículo, un próximo futuro post-Google? Seguramente no. No acabo de ver a una compañía con los recursos de Google dejándose morir o posponiendo una posiblemente necesaria reinterpretación de su hoja de ruta. Pero sin duda, significa que a pesar de sus resultados financieros y de su impresionante imagen, Google tiene problemas de muy diversos tipos en muy diversos frentes, que tiene que plantearse afrontarlos de manera solvente, y que no parece ser capaz de hacerlo mediante adquisiciones, toda vez que su estrategia a la hora de adquirir, como comentaré mañana al hilo de un artículo de Forbes que me cita al respecto, parece mucho más orientada a “rellenar huecos” que a crear y desarrollar ventajas sostenibles en el tiempo.

No, ser grande y exitoso no libra a nadie, ni siquiera a Google, de tener problemas. Y eso da para una muy interesante discusión.