Siri sexual assaultUn artículo de Sara Wachter-Boettcher en Medium titulado Dear tech, you suck at delight pone de manifiesto hasta qué punto los asistentes digitales desarrollados por empresas tecnológicas para responder a preguntas de sus usuarios no están preparados para lidiar con situaciones de crisis, y se centran en su lugar en responder con frases tontas o con chascarrillos pensados para provocar una sonrisa o una reacción de supuesta simpatía en el usuario. Ante la tesitura de programar asistentes útiles y con posibilidades de ayudar a personas en situaciones problemáticas, las empresas tecnológicas parecen optar por una ruta de ocurrencias, “chispa” y simpatía que, en algunas ocasiones, puede estar completamente fuera de lugar. 

La tarea de programar asistentes inteligentes es sin duda muy compleja. Ante una pregunta de un usuario que afirma que quiere pegarse un tiro o quiere saltar desde un puente, ¿cómo entender que se trata de una situación de posible suicidio que hay que intentar evitar, en lugar de proporcionarle direcciones de armerías cercanas en las que adquirir una pistola o puentes próximos desde los que saltar, como efectivamente pasaba en las primeras versiones? Cuando este tipo de situaciones han generado los lógicos escándalos mediáticos, la reacción de Apple ha sido la de llegar a un acuerdo con el Centro Nacional de Prevención del Suicidio y ofrecer una llamada al usuario cuando cree encontrarse ante indicadores de una situación de riesgo, pero existen muchos otros casos, como la petición de auxilio ante una situación de asalto, acoso o violación en las que los asistentes supuestamente inteligentes siguen reaccionando de manera claramente incorrecta, o incluso en ocasiones con una ironía o una ligereza que pueden llegar a resultar profundamente desagradables.

¿Qué razones llevan a los creadores de asistentes conversacionales de este tipo a priorizar elementos como el hacer chistes o el resultar incluso chispeantemente irónicos frente a tratar de proporcionar una solución adecuada a un problema? Ante, por ejemplo, una situación de riesgo, ¿no debería un asistente ofrecer ayuda inmediata ofreciendo contactar con la policía, tomando datos exactos de contexto (localización, grabación de sonido, etc.) o estrategias similares, en lugar de interpretar que está ante un usuario que quiere simplemente “jugar” con la aplicación? La existencia de usuarios que recurren al asistente de su terminal ante situaciones de crisis debería llevar a las compañías tecnológicas a plantear pruebas de todo tipo para asegurar que ante este tipo de situaciones, las respuestas están a la altura de las circunstancias, no simplemente reforzar la ironía y la agudeza de las respuestas para resultar supuestamente más humano. Después de todo, lo que caracteriza a los humanos es la inteligencia contextual, la capacidad de diferenciar cuando alguien está simplemente contándote una noticia o incluso un chiste que contiene la palabra “violación” frente a alguien que te está pidiendo auxilio tras haber sufrido una: responder con un chiste o una ironía a la segunda situación, en el caso de un ser humano, implicaría una profunda estupidez o una patología mental de algún tipo que impidiese sentir la más mínima empatía.

En español, Siri puede contarte un chiste. Pero si le dices “Oye Siri, me están siguiendo y tengo miedo”, por ejemplo, te responderá “de lo único que debemos tener miedo es del propio miedo”… buena suerte con eso si efectivamente estás en una situación de riesgo. De acuerdo, habrá quien opine que ante una posible situación de riesgo, nunca deberíamos confiar una posible solución a Siri, pero “es esa una contestación mínimamente madura? ¿No deberíamos, en el estado actual de desarrollo de la tecnología, poder esperar que proporcionase una respuesta razonable, mesurada o mínimamente útil a esos niveles?

¿Temen las empresas tecnológicas a las posibles consecuencias legales derivadas de plantearse como respuesta ante posibles situaciones de emergencia? ¿Prefieren un papel de “asistentes ligeros”, de “te busco un restaurante, te cuento un chiste, te hago una ruta para volver a casa… pero si tienes una situación de emergencia, pide ayuda en otro sitio”? ¿O simplemente no está la tecnología aún suficientemente madura como para discernir si nos hallamos ante una situación de emergencia? La chispa, la ironía y los chistes pueden resultar útiles las cien primeras veces que explorar lo que tu smartphone puede hacer o para hacer bromas con los amigos, pero yo, sinceramente, ya estoy de los chistecitos y la chispa de Siri hasta las mismísimas narices. La búsqueda de una utilidad real podría ser útil en contextos en los que realmente pudiese marcar una diferencia. Pero por alguna razón, algunas empresas de tecnología han priorizado resultar “simpáticas” o tener sentido del humor como supuesta demostración de inteligencia frente a convertirse en herramientas útiles en situaciones complicadas. Una elección, decididamente, mal planteada.

 

IMAGE: Viktor Bondar - 123RFMi columna en El Español de esta semana se titula “Un dios llamado algoritmo“, y aprovecha la noticia del cambio del criterio de ordenación de las fotografías de Instagram para pasar del orden cronológico a uno basado en nuestras preferencias de interacción para vincularlo con la importancia que ese tipo de procedimientos de determinación están adquiriendo en nuestras vidas. También hablé de algoritmos, concretamente de la evolución del de Google, en mi participación en la barra tecnológica de La Noche en 24 horas (disponible en la página del programa, a partir del minuto 1:36:23)

Los algoritmos deciden los resultados que obtenemos en nuestras búsquedas de información, los amigos con los que nos comunicamos, las actualizaciones que vemos, las noticias que leemos… últimamente, me levanto en las reuniones largas porque un algoritmo en mi reloj me dice que llevo demasiado tiempo sentado y que tengo que moverme! Como auténticos dioses, los algoritmos controlan cada vez más factores relevantes de nuestra vida, otorgan más poder a quienes están detrás de su desarrollo y su gestión, y se convierten en elementos que gobiernan nuestros usos, costumbres y decisiones.

Es un algoritmo el que muestra a una compañía las personas que han optado a un puesto de trabajo que ofrecía a través de LinkedIn, y las ordena en función del porcentaje de cumplimiento de los elementos del perfil requerido. Otro algoritmo nos muestra fotografías en Tinder y trata de maximizar el número de veces que surge un match, una oportunidad de interacción. Algoritmos para trabajo, ocio, negocio, consumo, vida social y hasta sexo. Cada vez más algoritmos, para cada vez más cosas, con decisiones en juego cada vez más variadas. No hace falta decir “ponga un algoritmo en su vida”: de manera casi imperceptible, ya hemos puesto unos cuantos, y juegan un papel cada vez más importante. La mano que mueve el algoritmo es la mano que domina el mundo.

 

Lee Sedol vs AlphaGo - Game 4La reciente victoria de AlphaGo, el modelo de machine learning creado por Google para jugar al Go, frente a Lee Sedol, el mejor jugador del mundo, por 4 partidas a 1 (en la imagen, el tablero al final de la cuarta partida, la única que ganó el jugdor humano), permite hacer algunas reflexiones interesantes sobre las perspectivas de la evolución y del desarrollo de este tipo de disciplinas que implican el progresivo desarrollo de las habilidades de las máquinas en tareas antes reservadas a los seres humanos.

La primera cuestión es bastante evidente: vencer a los mejores humanos haciendo cualquier cosa, como ya vimos anteriormente en los casos del ajedrez, del Jeopardy o de los juegos clásicos de Atari, es indudablemente divertido, proporciona una visibilidad a la disciplina de la que normalmente no goza, y contribuye decididamente a ponerla en la agenda del futuro para muchísimas cosas. Tras la noticia de la victoria de AlphaGo, todos tenemos bastante más claro que en el futuro tendremos robots que nos ganan a cualquier deporte o tarea imaginable, que fabrican, conducen, reparten o juegan… pero eso no lo es todo. En realidad, empezamos a tener claro que también tendremos inteligencias autónomas que tomarán decisiones empresariales, que fijarán los tipos de interés del Banco Central Europeo, que determinarán la presión impositiva o el importe de las pensiones, o que se convertirán en nuestra pareja ideal para la práctica del sexo (y no, no todo a la vez, por mucho que se os ocurran formas creativas de combinarlo :-)

Pero por otro lado, hay otra cuestión evidente: para ese escenario, los desarrollos no tendrán que dedicarse a vencer a los humanos, sino a trabajar con ellos. La idea del reemplazo resulta demasiado agresiva y difícilmente aceptable para una sociedad que va a tener que redefinirse de manera drástica y a una velocidad sin precedentes: que es algo que va a ocurrir ya es algo que cada vez más personas que analizan más allá del reduccionismo de cuatro clichés empiezan a aceptar, pero el cómo ocurre y lo que viene después es lo que todavía no está nada claro – y tardará en estarlo. Modelos sociales, distribución de la riqueza, papel de las personas, desarrollo de las sociedades humanas… muchos temas, y mucho que hacer. Y una verdad indudable: el progreso tecnológico ni se va a detener, ni va a esperar ni por nada ni por nadie.

Segunda cuestión: la victoria de AlphaGo conlleva un importante avance e impulso para el machine learning, justo al revés de lo que ocurrió con el parón que la disciplina sufrió en los años ’70, el llamado AI Winter que siguió a su primera oleada de popularidad. Ahora no solo hablamos de un premio de un millón de dólares dedicados a fomentar la enseñanza de las ciencias (STEM) y la tecnología, sino además, de una fortísima oleada de popularidad, de personas orientando su carrera profesional al tema, y de empresas pagando por ello. Si algo puede acelerar el desarrollo de la inteligencia artificial y el machine learning son este tipo de cosas, aunque sean simplemente la guinda de un pastel que cuesta muchísimo trabajo duro y muchísimo esfuerzo conseguir. Pero esa aceleración del ciclo es algo que, sin duda, vamos a presenciar más pronto que tarde, y definitivamente mucho antes de lo que pensaban algunos de los más optimistas.

Tercero, la serie de partidas jugadas por AlphaGo tanto contra Fan Hui como contra Lee Sedol dejan un importantísimo poso de experiencia. Todas y cada una de las jugadas están siendo analizadas hasta el límite, y algunas de las consecuencias que se desprenden son enormemente interesantes. La primera es que la máquina es infinitamente mejor aprovechando la experiencia. Del mismo modo que cada vehículo autónomo que circula un metro por cualquier carretera contribuye automáticamente con su experiencia al aprendizaje de todos los vehículos autónomos del mundo, la realimentación del machine learning de AlphaGo con las últimas partidas proporciona un aprendizaje y un modelo (un “jugador”) cada vez más potente. Algunos de los movimientos jugados por AlphaGo han sido no simplemente definidos como intrínsecamente “bellos“, sino que, además, definen jugadas que tendrían únicamente una entre diez mil posibilidades de ser llevados a cabo por un jugador humano, movimientos que ningún humano podría comprender – y mucho menos anticipar. La combinación de deep learning con reinforcement learning, poner a la máquina a competir contra sí misma y a derivar nuevas jugadas a partir de movimientos originales que posteriormente son realimentados en el sistema, demuestra funcionar de una manera espléndidamente brillante.

Tangencialmente, ya en el terreno de las hipótesis y las sugerencias, hay otras no menos interesantes conclusiones: dado que la victoria de Lee Sedol se produjo en la cuarta partida, cuando ya no existía posibilidad de que llegase a ganar la serie de cinco, ¿podríamos llegar a hablar de una inteligencia artificial con capacidad de ser emocionalmente inteligente? Es decir, ¿podríamos esperar que una máquina fuese suficientemente inteligente como para, pudiendo ganar, dejar conscientemente de hacerlo porque prefiere permitir que el humano marque, por así decirlo, “el gol del honor” y salve su orgullo? ¿Qué posibles implicaciones podrían llegar a tener este tipo de mecanismos ya no para el desarrollo de la inteligencia artificial, sino para la futura convivencia entre hombres y máquinas? ¿Puede una máquina llegar a ser condescendiente? ¿Sería interesante que lo fuese?

Hace algún tiempo, escribí un artículo para Forbes recomendando a directivos que bajo ningún concepto twitteasen estando bajo la influencia del alcohol: ahora resulta que un algoritmo es perfectamente capaz de determinar precisamente eso, cuándo un tweet ha sido escrito por un usuario que estaba bebido. Pensemos en las posibilidades, por ejemplo, a la hora de evitar muertes relacionadas con el consumo de alcohol y la conducción: ¿cómo deberán las máquinas gestionar ese tipo de cuestiones? ¿Puede una máquina llegar a relacionarse con un humano de manera… humana? Podemos encontrarnos muchos casos de juegos o tareas que una máquina puede hacer en las que el objetivo no es necesariamente “ganar” o “hacerlo mejor que nadie”, sino otro. Claramente, ganar no lo es todo. Y si la mentalidad no es necesariamente ganar, sino mejorar los niveles de cooperación entre humanos y máquinas, podríamos llegar a utilizar esa combinación para intentar resolver algunas de las cuestiones y problemas más difíciles del mundo.

Mientras tanto, sigamos jugando a algo que hace ya mucho tiempo que dejó de ser un juego. ¿Alguien se anima a una partida de poker?

 

IMAGE: gl0ck33 - 123RFLas divisiones sociales en el pasado se establecían en función de parámetros como la pertenencia a una determinada familia, el dinero y las posesiones, o el acceso a recursos como la información. El escenario del futuro – o para muchos, ya el del presente – se caracterizará por la posibilidad de entender y utilizar herramientas que salvaguarden la privacidad.

Un reciente paper de Ian Clark desarrolla precisamente esa interesante cuestión: la división de la sociedad entre personas completa y permanentemente monitorizadas, sin capacidad para llevar a cabo – escribir, leer, comentar, reunirse, visitar, etc. – nada sin que sea automáticamente conocido por las autoridades competentes, y aquellos con suficientes conocimientos o habilidades para mantener un cierto nivel de libertad y privacidad.

El impresionante desarrollo en China de una plataforma contextual de evaluación permanente de la seguridad pública, una auténtica herramienta de pre-crimen o policía del pensamiento, unida a las presiones del FBI norteamericano sobre Apple para el desbloqueo de sus dispositivos y a las iniciativas legislativas tanto del Reino Unido como de Francia en materia de acceso a las actividades de los ciudadanos, pintan un futuro verdaderamente inquietante. Una sociedad en la que una amplia mayoría de los ciudadanos utilizan herramientas que ofrecen la capacidad de monitorización permanente de todos sus actos e intereses, mientras una “minoría ilustrada” es capaz de utilizar otras que sí le permiten un cierto nivel de privacidad. La privacidad digital, establecida como nueva frontera de los derechos humanos.

La evolución del escenario tecnológico parece indicar precisamente esa tendencia: únicamente un escaso 10% de los terminales Android en el mundo están cifrados, frente a un 95% de los iPhones. Smartphones sin cifrar para la mayoría, frente a terminales cifrados y considerados razonablemente seguros para un porcentaje más pequeño y exclusivo. Herramientas de cifrado o de intercambio de información para el día a día dotadas de ciertas barreras a la adopción en función de una relativa complejidad técnica que no todos son capaces de utilizar – o algunos ni siquiera ven interesante utilizar – frente a minorías que cifran sus correos, su navegación y su vida digital mediante VPNs, proxies y correos seguros. La privacidad, como lujo al alcance de unos pocos, frente a una mayoría que, sencillamente, no la entiende o no la aprecia como tal. Herramientas gratuitas con desarrollos brillantes relegadas a la incomprensión o a una adopción meramente marginal. Tópicos como el “si no tengo nada que ocultar, no tengo nada que temer” convertidos en mantra para una mayoría ignorante o desinteresada, mientras una minoría se afana en defender a ultranza su privacidad no porque tengan realmente nada que ocultar o porque pretendan luchar o atentar contra el sistema, sino fundamentalmente como principio ideológico.

Ha bastado con un grupo terrorista, unos pocos atentados, un iPhone y un escenario susceptible de generar miedo para traernos hasta aquí, para engañar a la población hasta el punto de que crean que si permiten la monitorización de cada paso que den, estarán más seguros. Cuando escribí el prólogo para la edición española de “Cypherpunks”, el libro coral y conversacional de Julian Assange que habla precisamente de la necesidad de prepararse en el uso de estas herramientas para defenderse de una vigilancia masiva, universal y generalmente aceptada, nunca pensé que este escenario tardaría tan poco en llegar.

 

Flotus (IMAGE: James Bareham, first published at The Verge)Me ha gustado mucho el reportaje de The Verge sobre el uso de medios sociales por parte de Michelle Obama, @MichelleObama: an exclusive look at how the First Lady mastered social media. Una entrevista de diez minutos, y un examen detallado de cómo la primera dama de los Estados Unidos ha conseguido, a través de Vine, Instagram, Facebook, Periscope y otros medios, conectar con un público joven para convertir sus campañas en auténticos objetos sociales, en movimientos en los que su imagen puede tener potencialmente mucho que aportar.

Michelle Obama está implicada en cuatro campañas: Let’s move (vida y alimentación saludables), Joining Forces (ayuda a las militares, veteranos y sus familias), Reach Higher (fomento de la educación superior) y Let Girls Learn (educación de las niñas). En cada una de esas campañas, la participación de la primera dama resulta fundamental, y el uso de herramientas de social media se desarrolla de manera estratégica: sencilla, auténtica y directa. Transmitir la importancia de unos valores de manera que sintonice con los usuarios de una generación marcada por unas preferencias comunicativas radicalmente diferentes a las de sus mayores, pero que siguen utilizando los medios sociales para sintonizar con determinadas causas. Activar a esos jóvenes, teóricamente alejados de la vida política o de la participación en el ágora pública, a través de la conversión de las campañas en objetos sociales, en causas con entidad propia y elementos identitarios fácilmente transmisibles, es algo que está en la base del marketing moderno, y que pocas marcas saben hacer bien.

La implicación de Michelle Obama en este tipo de campañas responde a muchos de los elementos que cada vez más, reconocemos en esas marcas que saben conectar. Por un lado, se apalanca en la visibilidad de la persona y alimenta una presencia pública notable. Por otro, escucha, identifica tendencias comunicativas, y genera el engagement activo alimentando los canales de comunicación adecuados con todo tipo de elementos susceptibles de ser transmitidos. El resultado no es la “venta” de un concepto, sino la identificación activa con una causa, con un movimiento social, gracias a un vector, en este caso la primera dama, que la transmite de la manera adecuada a través de canales que generan participación activa y circulación en las redes sociales y, eventualmente, en los medios masivos. Una estrategia caracterizada por un nivel de transparencia notable, que el reportaje de The Verge captura sumamente bien. Una lectura y visionado muy recomendable no tanto para quedarse con el simple retrato del personaje, sino para tratar de dibujar paralelismos entre su uso de los medios sociales y las estrategias de comunicación de muchas marcas.