Little green soldierUn grupo de empleados de Microsoft, al constatar las intenciones de su compañía de entrar en la licitación del Joint Enterprise Defense Infrastructure (JEDI), un proyecto secreto con el Departamento de Defensa norteamericano de propósitos escasamente definidos pero enfocado, según sus responsables, a “incrementar la letalidad del departamento”, han escrito una carta abierta a la compañía pidiendo que se abstenga de participar.

El episodio recuerda a momentos comentados anteriormente en los que la laxa e indefinida ética de las compañías se contrapone a los principios éticos de sus empleados, como cuando los trabajadores de Google se opusieron a seguir trabajando en el Proyecto Maven o en la oferta de un motor de búsqueda sometido a censura en China, o los de Microsoft, Amazon o Salesforce protestaron pidiendo que sus compañías dejasen de trabajar con el servicio de inmigración o con la policía: cada día más, los trabajadores tecnológicos exigen conocer para qué o quién están trabajando y qué destino tendrá el código que están escribiendo, y amenazan con negarse a hacerlo si esos fines no son coherentes con su código ético.

La tendencia parece cada vez más acusada en el sector tecnológico, en el que la gran movilidad de los trabajadores posibilita llevar a cabo ese tipo de órdagos sin temer demasiado a un posible escenario de desempleo: las compañías ya no pueden apelar al principio de autoridad cuando se trata de definir el trabajo de sus empleados, y tienen que tener en consideración las ideas expresadas por ellos en forma de activismo interno cuando se comprometen en determinados proyectos que puedan ser vistos como de fines cuestionables. La noticia del asesinato de Jamal Khashoggi por el régimen saudí ha llevado a muchos a cuestionarse la complicada relación de las compañías de Silicon Valley con el dinero procedente del país árabe, y circulan ya listas de compañías y apps financiadas parcialmente con esas inversiones, en lo que podría convertirse en una amenaza de boicot.

Todo indica que, cada día más, las compañías se encuentran con un resquebrajamiento de los límites del principio de autoridad. Los tiempos de los directivos autoritarios, de las disciplinas férreas o de las culturas de incuestionable obediencia dejan paso a escenarios en los que los trabajadores se plantean lo que hacen, para qué lo hacen, y su contribución a la misión de la compañía: según afirman los autores de la carta abierta a Microsoft,

“Nos unimos a Microsoft para generar un impacto positivo en las personas y en la sociedad, con la expectativa de que las tecnologías que construimos no provoquen daño ni sufrimiento humano.”

Y si ese principio moral, que forma parte de la propuesta de valor a la hora de aceptar una oferta de trabajo, se convierte en papel mojado ante la magnitud de un contrato (el citado JEDI tiene un importe de diez mil millones de dólares y ha llevado a  que muchas compañías tecnológicas sueñen con hacerse con una parte de su licitación), eso puede afectar a la relación laboral, e incluso provocar dimisiones. Los trabajadores, al menos en estos niveles, ya no buscan simplemente una oferta que les dé de comer, sino que tratan de encontrar compañías con proyectos que les inspiren, a los que quieran contribuir con el código que crean, de los que se puedan sentir orgullosos. Si no consigues convertir a tu compañía o tu proyecto en algo con estas características, conseguir o retener talento puede convertirse en una tarea mucho más compleja de lo que parece. Y si además, entras en conflicto con valores éticos de algún tipo, puede que la cosa se complique mucho más. Google se vio obligada a publicar una declaración corporativa de principios éticos sobre el uso de la inteligencia artificial que pone límites a lo que la compañía podrá hacer o dejar de hacer con su tecnología, y Microsoft ha creado un comité de supervisión ética llamado Aether formado por los principales ejecutivos de la compañía y expertos externos que está rechazando algunos contratos en virtud de estos criterios.

Pronto, este tipo de organismos se convertirán en estándares en muchas compañías, y exigirán, entre otras cosas, un adecuado nivel de coherencia entre lo que estas afirman en las páginas dedicadas a responsabilidad social corporativa de la memoria anual, y las acciones y proyectos reales que llevan a cabo en la práctica. La brecha entre los directivos de supuestamente definían la estrategia de las compañías y los trabajadores que la ponían en práctica se resquebraja. Todo indica que son buenos tiempos para que empresas y directivos se replanteen muchas cosas.

 

Google ChinaMás de 1,400 empleados de Google han firmado una carta que circula a través de las herramientas internas de comunicación de la compañía demandando más transparencia con respecto al llamado Project Dragonfly, un plan para el relanzamiento de su motor de búsqueda en China cumpliendo con los requisitos de censura de su gobierno. Según el texto de la carta, el proyecto implicaría una decisión de la compañía que plantea cuestiones morales y éticas urgentes para los empleados de la compañía, que consecuentemente reclaman tener acceso a toda la información necesaria para tomar decisiones éticamente informadas sobre su trabajo, sus proyectos y su empleo.

La relación de Google con China tiene ya una importante historia. Tras el lanzamiento de Google China en el año 2006, el motor de búsqueda llegó a alcanzar un 36.2% de la cuota de mercado hasta que, en enero de 2010, a raíz de un incidente con hackers gubernamentales intentando extraer información de Gmail sobre las actividades de supuestos activistas, la compañía tomó la decisión de retirarse del país. Desde entonces, la cuota de mercado del buscador de Google, gestionado desde Hong Kong, se ha reducido a porcentajes meramente testimoniales. En varias ocasiones han surgido rumores sobre la posible vuelta de Google a ese mercado, que, por otro lado, ha seguido reclamando la atención de la compañía en aspectos como el acceso de las universidades y el talento chino a herramientas como Tensor Flow o la inversión en jugadores importantes en el escenario de la internet china, pero hasta el pasado 1 de agosto, cuando un artículo en The Intercept reveló los posibles planes de la compañía.

La carta de los empleados de Google responde, básicamente, al problema que supone enterarse por los medios de una decisión corporativa polémica que, en muchos casos, genera problemas éticos o morales a quienes pueden, de hecho, estar colaborando con su trabajo a que esa decisión pueda materializarse. El pasado mayo, la compañía experimentó otro momento similar por las protestas de muchos de sus empleados ante la participación en el llamado Project Maven del Departamento de Defensa, en el que se hacía uso de tecnologías de reconocimiento de imágenes para fines militares. Los problemas de Google se saldaron con el anuncio de la compañía de que no renovaría su acuerdo para la participación en el proyecto del DoD y con la publicación de una declaración corporativa de principios éticos sobre el uso de la inteligencia artificial, pero otras compañías tecnológicas han experimentado protestas similares, como Microsoft a cuenta de las relaciones de la compañía con la Immigration and Customs Enforcement (ICE) o con Amazon por el uso de su tecnología de reconocimiento facial por parte de la policía.

Sin duda, el activismo interno, los conflictos entre la muchas veces difusa ética corporativa y la ética de sus empleados, se está convirtiendo en un importante elemento a tener en cuenta en la estrategia empresarial. En muchos sentidos, estamos pasando de una idea inicial, propia de la revolución industrial, de trabajador obligado a hacer todo aquello que su compañía le ordena que haga, a una más madura en la que el trabajador posee unas convicciones éticas propias y puede negarse a llevar a cabo determinadas tareas si cree que esas acciones o sus consecuencias infringen de alguna manera esas convicciones. Este tipo de actitudes plantean un problema a las compañías, que ven complicado reducir su decisión al simple despido del trabajador sin que ello pueda llegar a suponer un problema de imagen o pueda conllevar acciones de protesta colectivas en solidaridad con la persona despedida llevadas a cabo por otros trabajadores.

Las compañías tecnológicas son especialmente propensas a este tipo de movimientos, porque sus empleados forman parte, en muchos casos, de un grupo relativamente privilegiado que se mueve en un mercado de trabajo susceptible de ofrecerles oportunidades rápidamente si deciden salir de su compañía. Esa situación de menor riesgo percibido, unido a procesos de reflexión constantes sobre los elementos que rodean el avance tecnológico, está llevando a que ese tipo de procesos de activismo interno se estén convirtiendo en cada vez más habituales. Y a medida que este tipo de acciones, cartas o protestas de los trabajadores de las compañías se van popularizando, se genera una situación en la que sus directivos tienen que ser necesariamente conscientes de que no todo está permitido en su estrategia, dado que si esta llega en algún momento a plantear problemas de naturaleza ética o moral a sus trabajadores, podría llegar a suponer un importante problema no solo de imagen, sino incluso de retención o captación de talento.

Cada vez más, dirigir una compañía implica ser consciente de las implicaciones éticas o morales de nuestras decisiones y de los posibles conflictos que puedan generar en sus trabajadores. Pretender restringir los dilemas éticos al ámbito de unos departamentos de responsabilidad social corporativa (RSC) convertidos prácticamente en herramientas capaces de justificar cualquier cosa o de cerrar los ojos ante determinadas prácticas va a resultar cada vez más insostenible. Las compañías no se dirigen de manera asamblearia, pero las empresas o directivos que no sean capaces de desarrollar la sensibilidad necesaria para entender ese tipo de cuestiones se enfrentarán a una previsible escalada de ese tipo de protestas, y a procesos que pueden interferir en muchos casos de manera definitiva con los grados de libertad de la compañía ante determinadas opciones estratégicas. La visión de una compañía como un ejército en el que sus soldados se mueven en función de una férrea disciplina resulta cada día más insostenible y trasnochada.

La decisión de Google de volver al mercado chino es sin duda compleja, está rodeada de innumerables matices, y es fundamental, dado el volumen de ese mercado, para el futuro de la compañía, pero podría plantear un serio problema si el proceso de reflexión sobre ella no se hace de manera que pueda aspirar a hacerla compatible con los principios morales y éticos de muchos de sus empleados. Que surjan protestas similares en otras compañías, aunque por el momento tiendan a restringirse a la industria tecnológica debido a sus especiales circunstancias, es algo que debería hacernos reflexionar. Y que, por otro lado, no creo que sea en absoluto una mala cosa.

 

IMAGE: Nick Youngson CC BY-SA 3.0 Alpha Stock ImagesUna compañía es un ente relativamente abstracto, formado por una amalgama de individuos diversos, y con un fin último que, en la mayoría de los casos, tiende a identificarse con un parámetro económico, con una frase del tipo “generar valor a los accionistas”. A lo largo de la historia, han sido muchas las compañías que, de una manera u otra, han demostrado supeditar claramente esa máxima de los beneficios a prácticamente cualquier otro concepto, desde IBM en la década de los ’30 y su colaboración con el régimen nazi para el holocausto, hasta, más recientemente, el envenenamiento sistemático e irresponsable del planeta por parte de Volkswagen. Si nos atenemos a los hechos, todo indica que lo más parecido a algo que podríamos calificar como “ética corporativa” es ese concepto denominado responsabilidad social corporativa, que en demasiados casos ha demostrado clara y tristemente ser poco más que una herramienta propagandística para justificar unas pocas frases grandilocuentes en una memoria anual.

Sin embargo, frente a la ética (o falta de ética) corporativa, está la ética de los empleados y su capacidad para organizarse. En la economía actual, los empleados, cada vez más, se convierten en una fuerza importante a la hora de corregir acciones emprendidas por sus empresas si, por la razón que sea, las juzgan inaceptables. Así, hemos podido ver recientemente el caso de Google frente al Proyecto Maven del Departamento de Defensa: un contrato indudablemente lucrativo para la compañía, en el que participan además muchas otras compañías tecnológicas – que en su gran mayoría no han dicho ni esta boca es mía – y que tiene como fin el desarrollo de algoritmos destinados a reconocer imágenes tomadas por drones en el campo de batalla, imágenes de personas cuyo destino es bien conocido por cualquiera con un mínimo de inteligencia y escrúpulos. La resistencia a la colaboración de la compañía en el proyecto comenzó con algunas dimisiones, continuó con una carta firmada por miles de empleados, y terminó con la no renovación del contrato con el Departamento de Defensa, así como con la publicación de unos principios éticos que pretenden marcar la actuación de la compañía con respecto al desarrollo de la inteligencia artificial. 

Ahora, el turno le toca a Microsoft: la compañía que el pasado enero se mostraba “orgullosa de colaborar con la Immigration and Customs Enforcement (ICE)“, se ha encontrado, tras la fortísima polémica desencadenada en torno a la demencial práctica de esta agencia, bajo la disfuncional administración Trump, de separar a las familias demandantes de asilo de sus hijos en la frontera e internar a esos niños, solos, en centros de custodia. Las protestas en torno a esta salvaje práctica no se han hecho esperar, y obviamente, han sido secundadas por algunas compañías tecnológicas y por empleados de Microsoft, que han comenzado protestas a través de Twitter y han puesto a la compañía en una situación obviamente complicada. Ante el alboroto y las protestas, la compañía intentó primero eliminar la entrada del blog corporativo en la que hablaba de su colaboración con ICE, y posteriormente ha decidido, ante las amenazas de dimisiones entre sus empleados y las llamadas al boicot, publicar una declaración en la que se manifiesta “consternada por la separación forzada de familias inmigrantes en la frontera“. En sucesivas aclaraciones, la compañía ha afirmado que

“… queremos ser claros: Microsoft no está trabajando con el Servicio de Inmigración y Aduanas de los Estados Unidos o Aduanas y Protección Fronteriza de EE. UU. en proyectos relacionados con la separación de niños de sus familias en la frontera, y contrariamente a algunas especulaciones, no somos conscientes de que los servicios de Azure estén siendo utilizados para este fin. Como compañía, Microsoft está consternada por la separación forzada de niños de sus familias en la frontera. La unificación familiar ha sido un principio fundamental de la política y la ley estadounidense desde el final de la Segunda Guerra Mundial. Como compañía, Microsoft ha trabajado durante más de veinte años para combinar la tecnología con el estado de derecho para garantizar que los niños refugiados e inmigrantes puedan permanecer con sus padres. Necesitamos continuar construyendo sobre esta noble tradición, en lugar de cambiar el rumbo ahora. Instamos a la Administración a cambiar su política, y al Congreso a aprobar legislación que garantice que los niños no estén separados de sus familias.”

Una declaración que deja en un vago “no somos conscientes de ello” el si las herramientas de la compañía son utilizadas o no por ICE, y que podría no ser suficiente para apaciguar las protestas, que podrían pedir la suspensión completa del contrato con la agencia hasta que la práctica sea eliminada.

En cualquier caso, dos casos que vienen a dejar una cosa cada vez más clara: si no estás de acuerdo con las prácticas de tu compañía, si te parecen éticamente reprobables, no estás obligado a colaborar con ellas, y deberías hacer caso a tu conciencia, oponerte y protestar. Pero una cosa es protestar, una acción que podría costarte el puesto de trabajo, en una empresa norteamericana, en un mercado de trabajo expansivo y con múltiples opciones, y en puestos en los que, en muchos casos, basta con ponerse en ese mercado para obtener otro puesto en otra compañía, y otra es hacerlo cuando no te consta que otros vayan a secundarte, cuando estás en un país con un mercado de trabajo complicado o con un índice de paro elevado, o cuando tu puesto no te garantiza un movimiento fácil a otra compañía. Los mercados de oferta y los de demanda, en este sentido, es previsible que no funcionen igual.

¿Tiene un precio la ética? ¿Solo puede comportarse éticamente aquel que puede permitírselo? Obviamente no debería ser así, y que empleados de algunas compañías norteamericanas empiecen a sentar precedente en este sentido es algo que podría llegar a tener un valor en el futuro. Al menos, si las compañías no hacen gala de un comportamiento ético por sí mismas, podremos contar con la ética de sus empleados para ponerlas en situaciones en las que, por las buenas o por las malas, tengan que cumplir con unos principios y con la sociedad en su conjunto. Que este tipo de comportamientos se generalizasen a otros países y otras compañías sería de lo más deseable, por el bien de todos. Pero sencillo, sin duda, no va ser.

 

IMAGE: Nick Youngson CC BY-SA 3.0 ImageCreatorGoogle ha publicado su declaración de principios con respecto a la inteligencia artificial, un texto cuidado, de propósito necesariamente amplio y que pretende cubrir todos los supuestos acerca de los posibles usos de su tecnología. La declaración constituye un documento breve y de lectura muy recomendable que, sobre todo, plantea muchas reflexiones sobre el mundo al que nos dirigimos y las reglas que, necesariamente, debemos plantearnos de cara a su evolución.

La compañía llevaba tiempo trabajando en una reflexión de este tipo, del mismo modo que se está trabajando mucho en este sentido en otros ámbitos: aquellos que afirman que la publicación del documento es una reacción a la reciente dimisión de una docena de trabajadores y la petición firmada por varios miles más en protesta por la participación de la compañía en el Proyecto Maven del Departamento de Defensa, destinado a reconocer imágenes tomadas por drones en el campo de batalla, o bien no conocen a la compañía, o confunden claramente los factores coyunturales con fundacionales, la forma con el fondo. La regulación de la inteligencia artificial no es un tema en absoluto nuevo, se está discutiendo en numerosos foros, en algunos de los cuales participo personalmente, y Google, como uno de los actores más relevantes y avanzados en este tema, no ha hecho más que poner en negro sobre blanco una declaración de principios que proviene de un proceso de reflexión largo y continuado en el tiempo.

Probablemente influenciados por la coincidencia en el tiempo de esas dos circunstancias, la mayor parte de los titulares que leerás en las noticias se refieren a la importancia de la declaración de Google describiéndola de manera simplista como “Google promete que su AI no será utilizada para el desarrollo de armas o violaciones de los derechos humanos“, cuando la realidad es que basta una lectura superficial del documento para entender que sus intenciones van mucho más allá. La mención a las armas, de hecho, ocupa un muy breve espacio en una sección de propósito aclaratorio titulada “AI applications we will not pursue”, y se limita a decir que la compañía no trabajará en “armas u otras tecnologías cuyo principal propósito o implementación es causar o facilitar directamente lesiones a las personas”, pero que “seguirán trabajando con gobiernos o con los militares en otras áreas que podrán incluir ciberseguridad, entrenamiento, reclutamiento militar, cuidado de salud para veteranos o búsqueda y rescate”.

¿Qué es lo importante, por tanto, en la declaración de principios de Google? En primer lugar, la importancia de llevar a cabo esta reflexión en todos los ámbitos, y de hacerlo de una manera no tremendista, bien informada, y con un adecuado nivel de realismo, sin imaginarse robots asesinos en escenarios apocalípticos que nos atacan en cada esquina, o supuestas inteligencias superiores que deciden librarse de los humanos porque les resultan molestos. No, cuando hablamos de inteligencia artificial no hablamos de inteligencia de propósito general, y no lo haremos durante mucho tiempo, porque inteligencia artificial, a día de hoy, no es eso. De manera realista, hablamos en realidad de aplicaciones que tienen más que ver con qué productos son ofrecidos a qué clientes potenciales, con políticas de pricing, con la prevención del abandono o churn, la detección de posibles patrones de actividad fraudulenta, las opciones en la determinación del marketing mix, y sin duda, cada vez más cosas. Menos morboso que los robots asesinos, sin duda, pero enormemente importante y con un potencial muy importante para hacer las cosas mal.

De ahí que uno de los puntos más relevantes declaración de principios, que incluye cuestiones como “ser socialmente beneficioso”, “evitar la creación o el refuerzo de sesgos”, “ser responsable ante las personas”, “incorporar principios de privacidad” o “ser puesto a disposición para usos acordes con estos principios” (lo que implica impedir su uso a quienes no los respeten), me han parecido puntos como el “mantener altos estándares de excelencia científica” o, sobre todo, “ser construido y probado con seguridad”: muchos de los problemas que la tecnología está planteando a medida que avanza provienen no del hecho de que se diseñe con objetivos potencialmente perjudiciales, sino al hecho de que se gestione de manera incorrecta, con una seguridad inadecuada, con errores graves en los procedimientos o sin tener en cuenta que en el mundo existen, obviamente, personas malintencionadas o con intereses oscuros. No, el “Oooops!”, la candidez o la ingenuidad sin límites no pueden seguir sirviendo como disculpas cuando hablamos de desarrollo de tecnologías con un potencial importante para usos perjudiciales o malintencionados, y Google reafirma su compromiso de cara a este tipo de problemas, un compromiso que que va mucho más allá del “no seremos malvados”. Esto, por supuesto, no exime a la compañía de la posibilidad de cometer errores, que pueden suceder en cualquier proceso, pero si reafirma una importante voluntad de no cometerlos, de someterse a procesos rigurosos y de tratar de evitarlos a toda costa. 

La reflexión sobre los principios éticos asociados al desarrollo de algoritmos de inteligencia artificial es importante, y va a producirse a todos los niveles. Tan importante como llevarla a cabo es conseguir que se produzca en el ámbito adecuado, alejada de ignorantes que desconocen completamente lo que es la inteligencia artificial y que, con mentalidad tremendista, creen que hablamos de HAL, de Skynet o de robots Terminator que vienen del futuro para asesinar a Sarah Connor. Permitir que personas no preparadas o que no entienden el desarrollo de machine learning e AI se impliquen en la redacción de los principios éticos que gobernarán su futuro es un absurdo conceptual que, sin duda, nos llevaría a visiones restrictivas y a intentos inútiles de detener el futuro. Esto incluye, sin duda, a la política: que el pueblo te elija para supuestamente representarle no implica que estés preparado para opinar – o peor, para legislar – sobre todos los temas. Si no se sabe de un tema, es mejor y más productivo para todos que se ejerza la responsabilidad necesaria para reconocerlo, abstenerse y solicitar la implicación de quienes sí lo dominan.

No es lo mismo, indudablemente, llevar a cabo una reflexión sobre los principios éticos que deben regir el desarrollo de la inteligencia artificial en Google, uno de los principales actores en el tema, que la está integrando en absolutamente todos sus productos y que se ha caracterizado precisamente por llevar a cabo una ambiciosísima iniciativa de formación de la práctica totalidad de sus empleados en esta disciplina, que tratar de desarrollarla en un gobierno, en un organismo supranacional o en cualquier otro entorno político en el que el conocimiento del tema está entre lo nulo, lo superficial y lo directamente alarmista. Reflexiones de ese tipo se van a intentar hacer en todo tipo de foros, y lo que más me interesa de ellas no son sus resultados, sino el proceso por el cual se lleven a cabo y las consecuencias que se pretenda que puedan tener.

Plantear interrogantes sobre el futuro y tratar de evitar consecuencias potencialmente negativas o no deseadas es una cosa, que si se hace con el rigor y la disciplina que Google ha puesto en ello, puede ser interesante y provechoso. Perseguir fantasmas y prohibir cosas por si acaso en alguna esquina aparece Terminator entre resplandores y nubes de humo es otra muy diferente, y nos puede llevar a verdaderas tonterías e intentos de detener el progreso y la evolución natural de la humanidad. Cuidado con los miedos irracionales, la desinformación, y con sus primos, la demagogia y el populismo. En el desarrollo de principios razonables y con sentido sobre el desarrollo de algoritmos de inteligencia artificial se juega una parte importante de nuestro futuro. La inteligencia artificial es cuestión de principios, sí. Pero de principios bien hechos.

 

IMAGE: Eric Isselee - 123RF

El gobierno alemán encuentra a Volkswagen responsable de un nuevo escándalo de trucos utilizados para ocultar emisiones nocivas de óxidos de nitrógeno, esta vez asociado con los modelos de lujo de la marca Audi. La marca tendrá que lanzar una llamada para la retirada provisional y modificación de 24,000 vehículos de los modelos A7 y A8 construidos entre 2009 y 2013 y equipados con motores diesel V6 y V8, de los cuales aproximadamente la mitad fueron comercializados en Alemania.

El nuevo escándalo es la prueba de que la marca alemana es exactamente igual que el escorpión de la fábula, el que picó a la rana que lo trasladaba al otro lado del río aunque eso significaba la muerte de ambos, porque simplemente “estaba en su naturaleza”. Que alguien en su sano juicio se arriesgue, tras el que ha sido el mayor escándalo en la historia de la automoción que ha obligado a la marca a provisionar más de 22,000 millones de euros en multas y compensaciones, a volver a ser encontrado culpable de algo similar es tan profundamente alucinante, que desafía cualquier intento de racionalización mediante el sentido común. Hablamos de una marca que conscientemente diseñó sistemas específicamente pensados para ocultar unas emisiones superiores a las autorizadas, con el fin de ganar con ello unas prestaciones adicionales que hiciesen a sus vehículos más competitivos. El dinero por encima de todo, a costa de la sostenibilidad del planeta y de la salud de las personas.

Los vehículos afectados llevaban supuestamente la certificación de emisiones Euro-5, pero emitían más del doble del límite legal de óxidos de nitrógeno cuando el volante era girado más de 15º, una circunstancia que ocurre de manera habitual durante la conducción, pero no mientras se realizan los tests de emisiones. El truco había sido desarrollado para ocultar intencionadamente esas emisiones cuando los vehículos se encontraban en inspección. La marca tiene ahora hasta el día 15 de junio para buscar un sistema que permita modificar los vehículos vendidos para que pasen a cumplir las correspondientes normas de emisiones.

El nuevo escándalo desmiente a todos los que afirmaron en el caso anterior que se trataba de algún tipo de “guerra comercial” entre fabricantes de diversos países: el hecho de que una marca del grupo Volkswagen sea de nuevo la afectada y que, además, las acusaciones provengan precisamente del gobierno alemán, su país de origen, convierte aquellos comentarios en completamente absurdos e infundados. No existe una guerra comercial por las emisiones: simplemente existen marcas para las que la ética y la responsabilidad social corporativa es algo completamente prescindible. Marcas que tendrán que trabajar mucho, muchísimo, para quitarse la etiqueta de “nocivas”. Mucho me temo que es así de triste. Y que la marca siga siendo, tras el escándalo anterior, la que más vehículos vende en el mundo, y que esto ocurra precisamente al día siguiente de que Donald Trump decida que su país abandona el Acuerdo de París, aporta todavía más al nivel de estupidez de la raza humana…