IMAGE: Jrg Schiemann - 123RFLa regulación es, sin duda, uno de los aspectos más interesantes y complejos cuando consideramos los procesos de innovación. El conjunto de leyes, normas, prácticas, directrices, restricciones y conductas que definen el marco en el que se desarrolla una actividad determinada se convierte, en muchas ocasiones, en oportunidades que el innovador explota por considerar que, en el nuevo entorno definido por una tecnología determinada, pierde todo o parte de su sentido. Pretender mantener la regulación a toda costa, incluso cuando las evidencias demuestran que ha perdido su sentido, suele identificarse con intentos de proteger al incumbente o al competidor tradicional frente a los nuevos entrantes, y con la generación de ecosistemas que coartan la innovación.

Los ejemplos son multitud: la regulación del transporte urbano en automóvil mediante un sistema de licencias tuvo sentido en su momento para evitar la llamada “tragedia de los comunes” (ciudades en las que cualquiera, sin normas ni control alguno, podía dedicarse a transportar pasajeros, con lo que ello conllevó de descontrol en cuanto a tarifas, negociaciones individuales o presencia de malos actores que se aprovechaban para su propio beneficio), pero pierde completamente su sentido cuando las normas de actuación son dictadas por plataformas en las que los conductores son evaluados de manera continua y las condiciones son fijadas de manera centralizada. Del mismo modo, parece evidente, por ejemplo, que si bien es necesario exigir a los establecimientos turísticos una normativa en cuanto a extintores, salidas de emergencia y procedimientos de evacuación, hacer lo mismo con apartamentos individuales que se alquilan a corto plazo no tiene ningún sentido, y tratar de convertir el requisito en exigible generaría una situación absurda y de imposible cumplimiento. Así, compañías como Cabify, Uber o Airbnb, tras poner en evidencia el escaso sentido que tenía mantener algunas de las regulaciones existentes en sus respectivas actividades, se convierten en compañías millonarias que aprovechan esa nueva situación y llegan, incluso, a generar procesos de adaptación de la regulación al nuevo panorama.

Sin embargo, la regulación no es, por principio, absurda o innecesaria. La regulación es el proceso por el que las sociedades humanas se otorgan reglas que facilitan el desarrollo de actividades en las condiciones en las que esas sociedades estiman oportunas. Y si bien están, como todo, sujetas a los cambios del entorno, pensar que son completamente innecesarias implica ser tan ingenuo como para pretender que los aspectos de la naturaleza humana que había que prevenir y que les dieron origen han desaparecido, algo que no suele ocurrir.

Así, los ejemplos que demuestran que la regulación era en efecto necesaria también comienzan a ser multitud: en YouTube, el ecosistema que en muchos sentidos ha sustituido a la televisión tradicional y ha generado una caída de las barreras de entrada que permite que prácticamente cualquiera pueda crear y difundir contenidos audiovisuales, nos encontramos ahora con un problema que resultaba perfectamente esperable: al retirar de facto las protecciones sobre la producción de contenidos que implican la participación de niños, surgen padres dispuestos a cometer auténticas barbaridades con sus hijos con el fin de obtener el éxito y la viralidad en YouTube, y que, como consecuencia, someten a los niños a auténticas torturas, a sesiones maratonianas delante de la cámara o a auténtico acoso en busca del plano, el tono y el gesto adecuado a cada situación. En este caso, la regulación tal y como estaba planteada se convierte en imposible a nivel de control, y requiere la aparición de procesos regulatorios nuevos, como podría ser el excluir todos los vídeos que contengan niños del sistema de publicidad del canal, algo a lo que YouTube, de momento, ha mostrado escasa sensibilidad.

Del mismo modo, hoy tenemos un reportaje en profundidad de The Outline titulado Bribes for blogs: how bands secretly buy their way into Forbes, Fast Company and HuffPost stories, un auténtico secreto a voces que todos los que participamos en medios conocemos desde hace muchísimo tiempo, y que parece intensificarse con el paso del tiempo. En este caso, no hablamos tanto de una regulación como tal, sino de un conjunto de normas y buenas prácticas: se supone que todo artículo esponsorizado o producto de un pago debe ir identificado como tal, y aunque las infracciones a ese principio han sido habituales a lo largo de los tiempos y muy anteriores a la llegada del canal digital, lo que tendía a ocurrir en muchos casos era, simplemente, que incumplir ese principio tendía a llevar aparejada una pérdida de prestigio y de valor referencial de la publicación. Ahora, el problema va mucho más allá. Cada semana, recibo una media entre tres y cuatro propuestas para escribir artículos esponsorizados, y eso que hablamos de una publicación relativamente minoritaria que ni del lejos tiene los números y la relevancia de otras muchas. Cada vez que escribo un artículo en Forbes o en otras revistas, el número de peticiones es aún mayor, y llega a resultar, en ocasiones, agotador. En esas condiciones, poder afirmar que jamás he escrito un artículo esponsorizado se convierte en una marca de prestigio que, por otro lado, tiene un valor relativo cuando existen personas dispuestas a asegurar – sin prueba alguna, pero a asegurar igualmente – que me han pagado por escribir tal o cual cosa.

En el caso de publicaciones profesionales, la situación es aún más compleja: en publicaciones en las que tengo implicación directa he llegado a ver en varias ocasiones como se prescindía de manera disciplinaria e inmediata de redactores que habían recibido pagos o prebendas a cambio de escribir de manera elogiosa de los productos de una marca, pero obviamente, la práctica es habitual y de difícil control. En principio, cada vez que un colaborador de una publicación inserta en ella un artículo esponsorizado sin declararlo como tal, estamos ante un fallo a dos niveles: por un lado, del proceso de publicación. Toda publicación debería contar con sistemas de control que, ante un artículo con “aspecto” de ser esponsorizado, desencadenase un proceso de inspección y de cuestionamiento del mismo. Por otro, un problema de ética: el colaborador que cobra a la marca al tiempo que percibe un pago por publicar está, en realidad, robando a la publicación, que en otras condiciones podría obtener un pago de la marca por la inserción de publicidad o de un formato de branded content, además de fallar a su audiencia ocultándoles información fundamental para juzgar la veracidad del artículo. Los casos, sin embargo, parecen acumularse, y los correos que se reciben con ofertas similares parecen asumir, cada vez más, que ese tipo de procesos, desgraciadamente, se han normalizado.

No, las regulaciones no estaban ahí por casualidad. Suponer que por el hecho de que un canal o un entorno esté recién definido y sea diferente, esas regulaciones ya no van a ser necesarias es de una ingenuidad terrible. Cuando Susan Wojcicki, de YouTube, afirma que ha visto cómo “algunos malos actores explotan nuestra apertura para engañar, manipular, hostigar o incluso dañar”, eso no resulta en absoluto sorprendente: lo sorprendente es, de hecho, que alguien sea tan absurda y estúpidamente ingenuo como para suponer que eso no iba a pasar. Si en el ecosistema anterior había una serie de protecciones para impedirlo, no era por casualidad, ni porque alguien tuviese ganas de fastidiar o de coartar libertades: estaban ahí porque eran necesarias, y crear una plataforma que no las posee es, sencillamente, fomentar ese tipo de comportamientos. Cuando una serie de publicaciones de nuevo cuño – o de toda la vida, pero que han decidido levantar determinadas restricciones – se encuentran con que hay colaboradores que se montan un auténtico negocio a base de colocarles verdaderos publirreportajes por los que han cobrado como si fuesen contenido genuino, deberían plantearse que los códigos de buenas prácticas estaban ahí por algo, expulsar a esos colaboradores con todo tipo de escarnio público y hacer un verdadero propósito de enmienda, restaurando todas las protecciones que estaban ahí previamente para evitarlo.

Replantearse la regulación en función de la innovación es algo perfectamente válido, y en ocasiones, demuestra que, efectivamente, parte de esa regulación puede haber dejado de tener sentido. Las cosas nunca son blancas o negras: pretender mantener la regulación a toda costa coarta la innovación, y muchas veces, no solo no tiene sentido, sino que se convierte en una defensa a ultranza de los jugadores tradicionales. Pero renunciar a la experiencia y al consenso social que dio lugar a determinadas regulaciones en virtud de una supuesta “innovación que lo cambia todo” es, simplemente, condenarse a repetir los mismos errores que se cometieron anteriormente, y a veces en edición corregida y aumentada. Pensar que, por sistema, la regulación ya no es necesaria, es en el mejor de los casos, ingenuidad, y en el peor, un intento de crear atajos para ganar dinero hasta que la situación se convierta en insostenible. Un comportamiento calificable de muchas maneras, pero no precisamente como ético. Algunos deberían plantearse hasta qué punto, con la excusa de la innovación, han creado auténticos monstruos. Monstruos que, además, cualquiera con dos dedos de frente sabía perfectamente que iban a surgir.

 

IMAGE: lkeskinen - 123RFGoogle, acosada por las marcas que planteaban retirar su publicidad de YouTube debido a los escándalos que rodeaban los vídeos de contenido supuestamente infantil, anuncia que se dispone a llevar a cabo un nivel de moderación mucho más agresivo para evitar que malos actores se aprovechen de la apertura de su plataforma, y que contratará hasta diez mil personas durante 2018 para llevar a cabo procesos de inspección manual de contenidos.

En las pasadas semanas, YouTube ha suspendido 270 cuentas y ha eliminado unos 150,000 vídeos considerados ofensivos o desaconsejables para niños, en un esfuerzo por normalizar y reconducir la situación. Además, la compañía planea seguir utilizando machine learning para ayudar a esos supervisores a eliminar casi cinco veces más videos de los que serían capaces de revisar de manera puramente manual. Según los datos manejados por YouTube, los contenidos revisados e identificados de manera algorítmica habrían requerido la supervisión de 180,000 personas trabajando 40 horas a la semana. Además de llevar a cabo la citada supervisión, la compañía difundirá un reporte regular sobre los avances en la ejecución de este plan, y adoptará un nuevo enfoque en publicidad con criterios más estrictos y más procesos de curación manual. 

Los esfuerzos de YouTube evocan los de otra compañía de su misma industria, Facebook, que el pasado mayo anunció la contratación de tres mil personas más para unirlas a las 4,500 que ya tiene en todo el mundo trabajando en supervisión de contenidos, y que en octubre, coincidiendo con la revelación de las inversiones de capital ruso en campañas publicitarias destinadas a sesgar la campaña electoral de las pasadas elecciones presidenciales, anunció la contratación de mil personas más para la supervisión de esos anuncios.

¿Cuántas personas en el mundo trabajarán en un futuro en la supervisión de contenidos? ¿Estamos hablando de una de esas “nuevas profesiones” que podrían definir las sociedades del futuro, o de un trabajo de los de la llamada gig economy, desempeñado a tiempo parcial y que termina por generar empleo de baja calidad que lleva a los que lo desempeñan a no sentirse humanos? Según algunos estudios, la carga psicológica que supone pasarse horas inspeccionando contenidos entre los que aparecen todo lo peor del ser humano puede generar problemas psicológicos de diversos tipos y síndrome de estrés post-traumático, lo que lleva a que la necesidad de adiestrar algoritmos para una supervisión precisa y adecuada que libre a los trabajadores humanos de los contenidos de naturaleza más gruesa sea todavía más acuciante.

¿De qué estamos hablando? Las compañías que ahora anuncian importantes contrataciones de miles de personas para esta función parecen asumir que, en el futuro, esos trabajos serán desempeñados por algoritmos, no por personas, y que esas contrataciones, por tanto, tendrán únicamente una naturaleza temporal. Esas personas están siendo contratadas porque las máquinas no llevan aún a cabo ese trabajo con el nivel adecuado, pero a su vez, sus acciones están siendo empleadas para adiestrarlas y que lo hagan mejor en el futuro, eliminando la necesidad de esos empleos humanos. La paradoja persiste: por mucho que Amazon contrate a muchísimas personas, se convierta en uno de los generadores de empleo más importantes de los Estados Unidos, y sus trabajadores se reciclen en otras funciones a medida que su trabajo es llevado a cabo por robots, la realidad es que a medida que el ejército de robots crece, el empleo total generado por la industria disminuye, y que en el futuro, hay muchos trabajos que nos resultará raro imaginar desempeñados por personas.

¿Se limita la sustitución a los trabajos de las denominadas 4D, Dull (aburridos), Demeaning (degradantes), Dirty (sucios) o Dangerous (peligrosos), o hablamos de un proceso sensiblemente más complicado y con más matices? ¿Veremos en el futuro a miles de personas contratadas como “content inspectors”, supervisores de contenido y sometidos a enfermedades laborales derivadas de ello, o hablamos de empleos temporales hasta que un algoritmo sea capaz de llevar a cabo esa tarea al nivel adecuado? ¿Tiene sentido tener a un ser humano corriendo en un almacén mientras recibe órdenes por un pinganillo, sentado en una línea de cajas moviendo y escaneando artículos, conduciendo en medio del infernal tráfico de una gran ciudad o enfrentándose a horas de contenidos que reflejan lo peor del ser humano? Y tenga o no sentido, ¿qué pasa con las personas que hoy viven de llevar a cabo esos trabajos?

Cada día que pasa, surgen nuevos trabajos temporales de escasa calidad en logística, conduciendo, en tareas repetitivas o en otras que escasamente podrían considerarse enriquecedoras o esencialmente adecuadas para las habilidades de un ser humano… ¿hablamos de un fenómeno de ajuste, o de una perversión de un capitalismo que va eliminando los controles y los logros que llevó muchos años conseguir? ¿Cuál es el futuro de la relación del reparto de tareas entre máquinas y hombres?

 

SimpleFunsEl artículo que posiblemente leas y veas comentado hoy si tus listas de suscripciones están mínimamente completas es este de James Bridle titulado  Something is wrong on the internet, un texto largo y detallado en el que el autor se preocupa por la proliferación de determinados vídeos en YouTube Kids, un producto diseñado por la compañía para proporcionar vídeos adecuados a los niños y que muchos padres tienden a emplear como auténtico “dispositivo apaganiños”, con contenidos completamente inadecuados desde múltiples puntos de vista, y apoyándose en los algoritmos de recomendación de la plataforma para encabezar las listas de popularidad y obtener ingresos publicitarios.

La presencia de este tipo de vídeos inapropiados ha sido puesta de manifiesto en otras ocasiones: contenidos que aprovechan personajes muy conocidos por los niños y los hacen protagonizar escenas violentas o de otros tipos, habitualmente con grafismos extremadamente simples, confeccionados con muy poco esfuerzo. El análisis de Bridle incide no solo en los vídeos como tales, sino más bien en el mecanismo de una plataforma que no solo posibilita este tipo de comportamientos, sino que los recompensa mediante sus algoritmos y el sistema económico de premiar la atención al que da lugar. Un análisis interesante, que pone el peso en la plataforma, en una YouTube que no parece hacer mucho de cara a la eliminación de este tipo de contenidos más allá de ofrecer sistemas que permiten que sean denunciados o marcados como inapropiados, y que no ha tenido ningún éxito por el momento de cara a su erradicación.

Sin embargo, el verdadero análisis, para mí, es todavía más desasosegante: indudablemente, internet tiene un problema. La combinación de factores como el desarrollo sin límites de la economía de la atención, los algoritmos que premian el sensacionalismo o el contenido más impactante, las posibilidades de anonimato o de trazabilidad compleja y otra serie de características de la red han dado lugar a un sistema en el que constantemente nos sorprendemos encontrando cosas que, si hacemos caso a la gran mayoría de observadores, no deberían estar ahí. Pero en realidad, el verdadero problema no está en internet: está en la naturaleza humana.

Me explico: todo sistema es susceptible de ser utilizado de diversas maneras. La ausencia de regulación para evitar comportamientos definidos o considerados nocivos, o los sistemas de regulación ineficientes, generan abusos de numerosos tipos. Podemos constatarlos en todas partes: a la popularización del correo electrónico sigue la proliferación del spam. ¿Es el spam un problema de diseño, algo de lo que debamos hacer responsables a los inventores del protocolo del correo electrónico o a los que comercializan herramientas para que los consumidores lo usen? No, es un problema de que una serie de actores descubren que pueden utilizar los protocolos del correo electrónico para enviar con un coste bajísimo mensajes comerciales a una gran cantidad de usuarios incautos, inexpertos o directamente idiotas, y aprovechar para separarlos de su dinero. Ese comportamiento es constante: cada servicio que surge cuenta con su caterva de aprovechados dispuestos a utilizarlo para engañar, robar, manipular o retorcer su propósito original. Las redes sociales son plataformas para compartir contenidos, pero convenientemente retorcidas, se convierten en herramientas para manipular un proceso electoral. YouTube sirve para ver vídeos, pero si la retorcemos adecuadamente, podemos conseguir que sirva para engañar a niños con contenidos inadecuados y ganar dinero a costa de exponerlos a contenidos a los que no deberían ser expuestos. Da igual el ejemplo que propongas: todos cuentan con usos inadecuados, inmorales o directamente delictivos que algunos pretenden utilizar para su beneficio. ¿Surgen los ICOs? Rápidamente proliferan personajes nocivos dispuestos a confundir a potenciales inversores y robarles su dinero.

¿Estamos hablando de un problema de internet? No, hablamos de un problema de la naturaleza humana. En ausencia de una regulación efectiva debido a la velocidad con la que se desarrollan y popularizan las nuevas herramientas, los delincuentes evolucionan y se convierten en los primeros colonizadores de cada nuevo nicho ecológico que surge en el planeta red. Para cuando se defina como delito subir vídeos a YouTube y aprovechar sus algoritmos para incrementar su popularidad, los delincuentes estarán haciendo otras cosas completamente diferentes. Probablemente un buen abogado encuentre siempre suficiente indefinición en esos comportamientos como para conseguir que salgan absueltos, y el simple principio de “no sé como definirlo pero lo reconozco cuando lo veo”, el I know it when I see it que podría contribuir con algo tan inherentemente humano como el sentido común a aliviar el problema, no se utiliza lo suficiente. No parecen existir tribunales ni jueces suficientes como para solventar los problemas que detectamos en internet todos los días, y si existiesen, se verían confrontados con una realidad compleja de fueros y sistemas judiciales nacionales tratando de mala manera de operar en un entorno global y sin fronteras. Lo que un estado intenta definir como un comportamiento execrable y encuadrar en un tipo penal evidente que sin duda ya existía, en otro estado está completamente sin legislar, o se sitúa en un limbo en el que las leyes resultan de imposible aplicación. Los mecanismos sociales de control, elementos como la reputación o la censura social que a otra escala y en otros períodos históricos se han convertido en elementos que ponían relativo coto a determinados comportamientos, tampoco funcionan, porque no se desarrollan con la necesaria velocidad. Cuando un individuo malintencionado encuentra una manera de aprovecharse de una plataforma determinada, la mayor parte de la sociedad ni siquiera es capaz aún de entender qué es lo que está haciendo.

Hemos construido una herramienta que no sabemos controlar, y que muchos consiguen retorcer para su beneficio incurriendo en comportamientos que cualquiera con un mínimo sentido común encontraría castigables, pero que en rarísimas ocasiones son castigados. Y de nuevo: el problema no está en la red, sino en la naturaleza humana, en las más profundas miserias de nuestra condición. ¿Cómo definir a un tipo que convierte en medio de vida el exponer a niños a contenidos completamente inadecuados y censurables? ¿Qué castigo debería encontrar si la justicia funcionase? ¿Cómo plantearse desincentivar un comportamiento semejante? ¿Cómo adaptar la legislación y los sistemas que tratan de poner bajo control lo peor de la naturaleza humana en un marco que evoluciona tan rápidamente?

 

IMAGE: Samuraitop - 123RFGoogle se ha encontrado con un serio problema en el Reino Unido, cuando de repente, el gobierno y algunos grandes anunciantes hicieron pública su decisión de interrumpir la publicidad institucional en YouTube debido a la aparición de anuncios gubernamentales en páginas de vídeos con contenidos calificables como de incitación al odio, racistas, antisemitas, extremistas o de mal gusto.

El problema, que ha obligado a la compañía a prometer controles más rigurosos en el etiquetado de ese tipo de contenidos, hace evidentes las carencias del esquema publicitario que más crece en la red: la publicidad programática o real-time bidding, en la que cada impacto proviene de un proceso de subasta en tiempo real de la audiencia supuestamente cualificada de una página.

La supuesta idea de hacer llegar el anuncio correcto a la persona adecuada y en el momento perfecto, administrada mediante un sistema que permite al más interesado formular el precio más elevado, choca con muchos problemas en su conversión en realidad. Y uno de ellos es tan claro y evidente como que los contenidos no pueden ser definidos únicamente por las audiencias que congregan, y menos aún si cualificamos a esas audiencias únicamente en función de unas pocas variables sociodemográficas. La realidad, como todos sabemos, es mucho más compleja que unas pocas variables.

En el caso de YouTube, resulta evidente que Google tiene un problema: las cifras que mueve, en torno a trescientas horas de vídeo recibidas y publicadas cada minuto que pasa, hacen imposible una supervisión manual: se calcula que serían necesarias unas cincuenta mil personas viendo vídeo constantemente durante ocho horas al día para poder llevarla a cabo. En su lugar, YouTube emplea un sistema de alertas basadas en herramientas para la comunidad de usuarios: cuando varias personas marcan un vídeo como ofensivo, este pasa a un sistema de supervisión manual que podría llevar a varias medidas, desde su eliminación total de la plataforma a su exclusión del sistema de publicidad, pasando por bloqueos locales, exclusión de determinadas audiencias, u otras posibilidades.

El problema para un gobierno o compañía no termina simplemente diciendo “yo no sabía nada” o “no tengo ni idea de en qué sitios sale mi publicidad”, porque aunque nadie tenga por qué asumir que una publicidad determinada suponga el estar de acuerdo con los contenidos de una página, la cuestión va mucho más allá de un simple problema estético: es que con la impresión publicitaria se está contribuyendo a financiar al creador del contenido. De ahí que la idea de que con dinero público o con los beneficios de una marca se estén aportando recursos a causas como el racismo, la xenofobia, el odio, el terrorismo o el antisemitismo, entre otras, resulte tan preocupante.

Por otro lado, la cualificación de los contenidos está lejos de ser el único problema de la publicidad programática. A medida que crece y se generaliza este mecanismo, se está dando lugar a un ecosistema en el que cunde la sensación de que “todo es mentira“: audiencias generadas a golpe de bots, cantidades crecientes de click fraud, reproducciones de vídeo simuladas o inexistentes, analíticas falseadas… hace algún tiempo, escribía en El Español sobre la necesidad de un reset para la industria de la publicidad en general: en muy poco tiempo, la red ha pasado de representar la promesa de un medio perfecto para alcanzar con nuestros mensajes publicitarios a las personas a las que más les pudiesen interesar, a convertirse en una especie de salón de los espejos en el que se fabrica tráfico, se compra tráfico, se vende tráfico y se simula tráfico. 

Una vez más, se cumple la regla general: una vez creado un ecosistema atractivo y sometido a un fuerte crecimiento, no tardan en aparecer aprovechados dispuestos a enturbiarlo, a timar a incautos y a destrozar su propuesta de valor. Nada nuevo bajo el sol.

 

Felix Kjellberg, creador del canal pewdiepie encabezó por segundo año consecutivo la lista de los youtubers mejor pagados de 2016 con 15 millones de dólares ganados al año, de acuerdo con la lista de la revista estadounidense Forbes.

El listado incluye a las 12 estrellas de internet de 10 canales de la plataforma de videos en línea YouTube, quienes en conjunto ganaron 70.5 millones de dólares.

El conteo mide las ganancias antes de restar los honorarios de administración y los impuestos , basadas en datos de la consultora Nielsen, de la página web IMDBy otras fuentes, así como entrevistas con agentes, gerentes, abogados, miembros de la industria y otras estrellas de la plataforma digital.

Aquí puedes ver el listado:

The post Los youtubers mejor pagados de 2016 (Video) appeared first on Revista Merca2.0.