¿Sustituirán las máquinas a los abogados? - Abogacía EspañolaLa revista Abogacía Española, editada por el Consejo General de la Abogacía, me pidió un artículo para su número 108 acerca de las posibilidades de inteligencia artificial como la tecnología más puntera del momento, y los retos que supondrá (y ya supone) para la abogacía en particular y para la Justicia en general. El tema me resulta interesante como todos los procesos de disrupción tecnológica, pero más ahora dado mi compromiso como vocal en el Consejo Asesor para la Innovación en la Justicia. El resultado lo han titulado “¿Sustituirán las máquinas a los abogados?” (el enlace está en Flash, aquí añado en pdf la portada de la revista y la página de mi artículo), y está encuadrado en un especial con varios artículos interesantes sobre el tema. 

Resulta fuera de toda duda que muchas de las tareas que hoy lleva a cabo un abogado serán desempeñadas en el futuro por algún tipo de aplicación de la inteligencia artificial. Los avances comerciales en ese sentido de compañías como IBM con ROSS, el asistente de búsquedas en la jurisprudencia para bufetes de abogados que muchos despachos ya han incorporado con aparentemente muy buenos resultados, tiene en principio y por diseño una aplicación mucho más directa y una mayor propuesta de valor en el ámbito del derecho anglosajón o common law, pero la compañía, interesada en abrir otros mercados, ya está llegando a acuerdos de desarrollo para promover su mejora y su aplicación al derecho continental. En principio, ROSS se plantea como un asistente para el abogado, el papel del denominado paralegal en la tradición legal norteamericana, pero indudablemente, puede suponer no solo importantes incrementos de productividad gracias a recortes en el número de horas invertidas por los abogados, sino también la posibilidad de mejorar de manera sensible la calidad de los enfoques y estrategias utilizadas.

Como en todos los ámbitos, el desarrollo tecnológico termina por generar tareas que, por su mayor eficiencia, dejan de llevarse a cabo de forma manual por un humano. Del mismo modo que en pocas generaciones, los radiólogos y especialistas en diagnóstico mediante imágenes médicas dejarán de mirar esas placas para evitar pasar por alto posibles elementos que un algoritmo sí será capaz de identificar y, eventualmente y a lo largo de generaciones, perderán la habilidad de diagnosticar manualmente, parece claro que en el futuro, pocos abogados llevarán a cabo búsquedas en la jurisprudencia de manera manual o las encargarán a un asistente, por miedo a perderse enfoques potencialmente relevantes que no escaparían a los implacables y metódicos algoritmos. Igualmente, es de esperar que una parte de la justicia evolucione para convertirse en algorítmica, que muchos delitos no lleguen siquiera a ser vistos por un humano salvo que sean objeto de recurso, que sea un algoritmo el que determina cuestiones como la posibilidad de reincidencia de un delincuente, y que ese tipo de cuestiones contribuya a solucionar en parte el colapso que sufren la mayoría de los sistemas judiciales. Cuestiones como el dilema de la caja negra o la ventaja competitiva que obtengan los que utilicen este tipo de sistemas frente a los que no lo hagan tendrán, además, que ser objeto de discusión a todos los niveles, pero tendrán que serlo desde una óptica abierta y no restrictiva si no se quiere perder el tren del progreso tecnológico y tardar más en alcanzar las ventajas que su uso pueda traer consigo.

Al abogado, sin duda, le va a tocar relacionarse con la inteligencia artificial, y eso generará todo tipo de cambios, incluidos, como no y por la parte que me toca, en el tipo de formación que es preciso impartir a quienes estén preparándose profesionalmente para trabajar en este ámbito. Pero plantear la inteligencia artificial en términos de sustitución es un error peligroso, que genera miedos, desconfianza y posiblemente, procesos de adopción más lentos. De ahí el párrafo final de mi artículo:

El mayor peligro de la tecnología no es que te deje sin trabajo, sino que te convierta en obsoleto, en inadaptado frente a los que la utilizan. No nos planteemos si la tecnología nos va a dejar o no sin trabajo: planteémonos cómo podemos mejorar nuestro trabajo con ella. Y de paso, cómo podemos mejorar la sociedad.

 

Photos in media (Feb. 2018)

Esta semana he tenido una cierta presencia en medios por dos temas no relacionados entre sí y que, dado que esta página no solo la tengo para analizar la actualidad tecnológica, sino también un poco como “mi querido diario”, me gustaría comentar brevemente.

El primero de ellos fue la publicación de una lista en Business Insider, “Los 25 españoles del mundo de la tecnología que deberías seguir en Twitter“, amablemente convertida en lista de Twitter por Juan Andrés Muñoz para facilitar su seguimiento a quien lo desee. Un detalle de Business Insider que no esperaba, pero que no deja de tener su punto, porque mi uso de Twitter a lo largo de los años ha evolucionado sensiblemente, y desde hace bastante tiempo, lo utilizo únicamente para publicar mi entrada diaria en español y en inglés y para compartir alguna noticia publicada por terceros que considero interesante.

Si Business Insider considera que soy uno de los 25 españoles que deberías seguir, por mí encantado, porque el uso de Twitter que mantengo es precisamente eso, un intento de compartir información sobre lo que creo que es interesante en el mundo de la tecnología. Twitter supone para mí una fuente considerable de tráfico, en torno al 10% en mi página en español y bastante más en mi página en inglés, y que una publicación lo destaque, y mencione además que tengo “un tono muy didáctico y divulgativo”, considerando que me dedico a la enseñanza, quiere decir que no lo estoy haciendo del todo mal :-) Recuerdo a los posibles interesados que si alguien quiere una visión más completa de mi selección de noticias tecnológicas del día escogida con cierta regularidad, puede seguirme en este tablero de Pinterest o en mi revista de Flipboard, en las que no incluyo lo que escribo, sino únicamente lo que leo.

El segundo fue la noticia de la constitución del Consejo Asesor para la Innovación en la Justicia, una iniciativa del Ministerio de Justicia creado mediante orden ministerial como grupo de trabajo de los previstos en la ley 40.3 de la ley 6/1997. Sus funciones, según el documento oficial que detalla su creación, incluyen la identificación de necesidades, obstáculos, y oportunidades para la transformación de la Administración de Justicia, la generación de ideas para el desarrollo de políticas e iniciativas innovadoras en el sector legal, la promoción de la cultura de la innovación en el sector Justicia, la identificación de retos para las políticas de innovación en Justicia, la anticipación de tendencias emergentes y su uso en Justicia, la sugerencia de reformas legales necesarias para adaptar el ordenamiento jurídico a las nuevas exigencias planteadas por la sociedad, la propuesta de fórmulas de colaboración del sector público con el sector privado y la sociedad civil en el desarrollo de la digitalización de la Justicia, y la sugerencia de iniciativas que sirvan para impulsar la convivencia entre el Derecho y la tecnología. A petición del ministro, podría igualmente pronunciarse sobre medidas o planes que esté impulsando el Departamento, proyectos normativos, o directrices y decisiones relevantes.

La participación en el Consejo Asesor para la Innovación en la Justicia no conlleva ningún tipo de remuneración. Para mí, que el gobierno de mi país considere que puedo, a título estrictamente individual y no como representante de ninguna empresa, cargo o institución, tener algo que aportar supone toda una satisfacción: participaría en cualquier caso, independientemente del color político del gobierno que me lo pidiese. La primera reunión dejó discusiones interesantes y, sobre todo, un planteamiento operativo, abierto, poco burocrático, y con sensación de poder sacar cualquier tema o comentar cualquier idea con plena libertad. A medida que vaya avanzando la iniciativa, iré comentando mis impresiones al respecto.

 

IMAGE: Alexander Kharchenko - 123RFEsto puede marcar un precedente legal muy interesante: la Director of Public Prosecutions del Reino Unido, Alison Saunders,  anuncia en una pieza de opinión en The Guardian titulada Hate is hate. Online abusers must be dealt with harshly que los delitos de incitación al odio, acoso, racismo, abuso, odio religioso y otros similares serán perseguidos exactamente igual cuando ocurran a través de la red que cuando tengan lugar fuera de ella.

Un paso hacia la normalización del mundo online como una parte ya significativa del contexto en el que discurre nuestra vida, y una cuestión de lógica palmaria: que te insulten o te acosen a través de una red social no es menos grave que el que lo hagan mediante pintadas en la puerta de tu casa o en plena calle, y en muchos casos, tiene el mismo o incluso peores efectos.

La idea de que es necesario legislar de nuevo para incluir las situaciones derivadas de la llegada de internet se tambalea: los problemas son los mismos de siempre, y las leyes que aplican deben ser, con escasísimas excepciones, las mismas que aplicaban antes de que internet existiese, si es que alguien todavía recuerda cómo era el mundo antes de internet. Las leyes provienen del consenso social obtenido durante mucho tiempo, y tratar de crear nueva legislación para internet es algo que solo se asienta en la ignorancia del contexto online y que en la práctica totalidad de casos supone hiperlegislar, algo que nunca conduce a buen puerto. Los delitos son igual de delitos online que offline, con todo lo que ello debe conllevar: si te roban en la red, es un delito de robo, con el único atenuante de no incluir violencia, pero un robo al fin y al cabo, y ese debe ser el caso para todos los delitos. Las excepciones, en un contexto cada día más normalizado, tienen cada vez menos sentido.

En el caso de Alemania, este tipo de situaciones se dan desde hace ya bastante tiempo: muchas de las cuestiones que son delitos de odio fuera de la red, como la exhibición de simbología nazi, la exaltación de sus posturas ideológicas, la negación del holocausto o la incitación al odio o la violencia por razones raciales o religiosas ya son castigadas del mismo modo tengan lugar en la calle o en la red. Sin embargo, las leyes alemanas parecen excederse en la consideración de la responsabilidad al pretender imponer multas multimillonarias de más de cincuenta millones de euros a las plataformas sociales si no eliminan rápidamente este tipo de contenidos, algo que no sucede fuera de la red (no se multa a un ayuntamiento o al propietario de un edificio por no borrar una pintada rápidamente, por ejemplo) y que marcaría un tratamiento diferencial contra el mundo online que no parece tener demasiado sentido y confunde la responsabilidad de los usuarios, que son los que realmente cometen el delito y los que deben sufrir las consecuencias del mismo, con la de la plataforma, que no es más que el contexto en el que tienen lugar las acciones punibles.

Considerar la red como un entorno diferente ha traído numerosos problemas. La consideración del trolling como “travesuras” ha traído como consecuencia una falsa y peligrosa normalización del discurso del odio, del insulto y del acoso en la red, algo que nunca debería haber ocurrido y que es preciso corregir. Poner una barbaridad en Twitter como reacción a algo es ni más ni menos que eso, poner una barbaridad, y debe conllevar las mismas consecuencias que gritárselo a alguien a la cara en la vía pública o que pintarlo en su portal: si supone acoso, incitación al odio, difamación, abuso, etc. debe tener esa consideración a todos los efectos independientemente de que se haya hecho en la red o fuera de ella, y los usuarios tendrán que tener la madurez suficiente como para entenderlo así, o afrontar las consecuencias.

A medida que el pasar tiempo en la red se convierte en cada vez más normal, tenemos que empezar a considerar el contexto de la red como una parte más de nuestro contexto diario, sujeto a las mismas reglas y leyes, y los jueces tienen que acostumbrarse a pensar en el entorno online como una parte más en la que la justicia se imparte de la misma manera y con las mismas leyes que en un entorno offline con el que tienen, posiblemente, todavía más familiaridad. Con una internet que cuenta su edad ya en décadas y con más de la mitad de la población mundial conectada a la red, ideas como esta representan la única manera lógica de proceder y de avanzar.

 

IMAGE: Kittipong Jirasukhanont - 123RF

Durante las últimas semanas, he estado utilizando un artículo de Wired, titulado Courts are using AI to sentence criminals. That must stop now, para generar discusiones interesantes en algunas de mis clases y conferencias: el uso de algoritmos en procesos judiciales en los Estados Unidos para determinar, por ejemplo, la probabilidad de reincidencia de un acusado, y su uso para administrar una sentencia más o menos dura dependiendo de ello.

Ayer, el New York Times comentó el tema al hilo del mismo caso que el descrito en Wired, el de Eric Loomis, un criminal enviado a prisión el pasado marzo por un juez que utilizó a instancias del fiscal el resultado de COMPAS, un algoritmo creado por Equivant, e hizo constar en el sumario que

“you’re identified, through the COMPAS assessment, as an individual who is a high risk to the community.”

(“usted ha sido identificado, mediante la evaluación COMPAS, como un individuo que representa un alto riesgo para la comunidad.”)

La defensa de Loomis ha alegado que el uso del informe generado por el algoritmo vulnera los derechos del acusado, por ser un algoritmo secreto que no puede ser inspeccionado ni estudiado, lo que impide que sea discutido o cuestionado de manera efectiva. En efecto, no se trata únicamente de que el algoritmo sea secreto debido al interés de su creador, sino que, como comentábamos hace algún tiempo, los procesos de machine learning generan cajas negras que una inteligencia humana no puede monitorizar, que solo pueden ser valorados en función de la calidad de su output, lo que genera un inmediato problema de transparencia.

El proceso es claro: un banco, por ejemplo, podría fácilmente comenzar a alimentar un algoritmo de machine learning con todo su archivo de préstamos e hipotecas a lo largo de la historia y sus resultados en cuando a pago o impago, y muy posiblemente se encontraría con que, al cabo del tiempo, los resultados del algoritmo podrían mejorar las decisiones de un comité de riesgos integrado por personas con amplia experiencia en banca. Si efectivamente es así, el banco podría optar por eliminar a su comité de riesgos y sustituirlo por el proceso automatizado, en aras no solo de una reducción de costes, sino también de un resultado económicamente mejor. Sin embargo, esa decisión, que llevaría a que los clientes del banco viesen cómo la decisión de si les conceden o no una hipoteca pasa a depender de un algoritmo, podría tener dos problemas:

  • Falta de transparencia: de acuerdo, no me concedes la hipoteca… pero, ¿qué debería hacer si quiero llegara obtenerla? ¿Cuáles han sido las variables que han hecho que no me la concedas, y cómo debería trabajar para mejorar mi elegibilidad a la hora de obtener esa hipoteca más adelante? ¿Cómo me explicas una decision que ni tú mismo entiendes, y de la que solo sabes que maximiza tus posibilidades de obtener la devolución del préstamo?
  • Sesgos: contrariamente a lo que algunos podrían pensar, el uso de un algoritmo no garantiza una mayor objetividad, sino un reflejo de los sesgos que pudiese haber en los datos originales. Si los datos con los que el banco alimentó a su algoritmo, por ejemplo, reflejasen algún tipo de tendencia histórica en la que se tendía a rechazar, por ejemplo, a los solicitantes de un grupo determinado en función de criterios como sexo, etnia, religión, etc., esos sesgos podrían consolidarse en el algoritmo obtenido a partir de ellos, pero ser difíciles de identificar por parte de una inteligencia humana.

En la justicia norteamericana, son cada vez más los procesos que están siendo colonizados por algoritmos: muchos abogados comienzan a utilizar algoritmos como Ross, basado el el Watson de IBM, no solo para determinar qué jurisprudencia es más relevante para el caso que están preparando, sino incluso para examinar los posibles sesgos del juez que tienen asignado basándose en todas sus decisiones anteriores en posibles casos similares, con todo lo que ello conlleva de cara a optimizar los argumentos utilizados. A medida que ese tipo de metodologías de trabajo se consolidan, los procesos de machine learning que los soportan van convirtiéndose en cajas negras dotadas cada vez de una mayor complejidad, con procesos que un humano es cada vez más incapaz de replicar o entender.

La robotización o algoritmización de la justicia podría, por un lado, convertirse en un posible recurso para muchos de los problemas generados por la saturación de los tribunales: todo caso suficientemente claro, sencillo o evidente podría dejar de ocupar valiosos recursos de un juez o tribunal humanos, y pasar a ser determinado por un algoritmo automatizado, como ocurre ya de hecho con muchas infracciones de tráfico, en las que el algoritmo, en realidad, tiene una necesidad de inteligencia muy baja: basta con que un requisito determinado se cumpla, para que se genere un resultado. A medida que la complejidad de los casos se incrementa, podemos encontrarnos con casos como el descrito, que pueden generar una indefensión: ¿cómo defenderme de un veredicto basado en una caja negra que simplemente valora una serie de variables de entrada y devuelve un resultado? ¿Debemos integrar la posibilidad de explicar el veredicto en los propios algoritmos, exigiendo una determinación de los pesos empleados o de los cálculos utilizados de manera que un humano pueda llegar a seguirlos?

Hace pocos días, en Netexplo, tuve ocasión de entrevistar en el escenario a la fundadora de una compañía de diagnóstico médico mediante imagen, Qure.ai. La conversación que mantuve me generó cuestiones muy interesantes: a lo largo del tiempo, una vez que los médicos adoptan el uso de su tecnología para determinar si una radiografía, un escáner o una tomografía muestran un tumor, la habilidad de un médico para examinar manualmente una imagen podría llegar a perderse por falta de práctica, y aunque la máquina, a medida que mejora su algoritmo, pase a ofrecer resultados mucho mejores que los médicos humanos, estaríamos ante una situación de pérdida de una habilidad que los humanos habíamos desarrollado como tal. Es el mismo tipo de argumento que el empleado por Nicholas Carr en “Superficiales” cuando pensamos, por ejemplo, que antes de los teléfonos móviles éramos capaces de recordar más números de teléfono de memoria: internet nos vuelve estúpidos, porque sustituye habilidades que antes teníamos y las convierte en innecesarias. O también , por supuesto, contra-argumentado de la misma manera: nadie sería capaz, hoy en día, de escribir sobre una piedra, porque nuevas tecnologías y soportes lo han convertido en innecesario… y no pasa nada, simplemente aceptamos que el contexto, y en este caso, la inteligencia artificial, redefine la inteligencia humana. Pero ¿qué ocurre cuando esa pérdida de la habilidad humana se convierte en decisiones “subcontratadas” a una caja negra que no podemos interpretar?

 

IMAGEN: Thomas Reichhart - 123RFMi columna de El Español de esta semana se titula “Convenio de Ginebra digital“, y reflexiona sobre la idea introducida por el presidente de Microsoft, Brad Smith, de crear una nueva versión del conocido Convenio de Ginebra para el derecho internacional humanitario, revisado y ampliado ya en tres ocasiones tras su primera versión, para intentar detener la escalada en el creciente uso del state-sponsored hacking, el uso de la red para tratar de espiar a las administraciones de otros países o de atacar y dañar sus infraestructuras críticas

Siempre he sido muy crítico con la tendencia a la hiperlegislación, el intento de reescribir las leyes para supuestamente adaptarlas al nuevo contexto que supone internet. Internet no requiere nuevas leyes ni leyes especiales, requiere simplemente que los jueces tengan la flexibilidad suficiente como para interpretar lo que es delito o no lo es en un entorno diferente. La mejor manera de analizar cualquier acción presuntamente punible en internet es retirar internet del escenario y plantearse cómo la juzgaríamos si se hubiese producido fuera de internet. Un robo es un robo, sea en internet o fuera de él, una difamación es una difamación en la red o en la calle, y un ataque a un país lo es independientemente de que se produzca a través de internet o mediante un espía con gabardina y gafas oscuras. Por eso, la idea de no promover leyes como tales, sino foros de discusión en los que se llame a las cosas por su nombre y se aíslen los problemas me resulta sensiblemente más atractiva que la idea de dictar nuevas leyes a diestro y siniestro cuando las que existían ya eran claramente suficientes y respondían a un consenso social obtenido a lo largo de mucho tiempo.

Uno de los principales problemas de internet es el hecho de que en toda innovación surgen, de manera generalmente muy rápida, un conjunto de aprovechados, malintencionados o directamente delincuentes que intentan extraer un provecho ilícito de las características del nuevo entorno. Habitualmente, la respuesta de la ley en este sentido es lenta e ineficiente, y suele serlo mucho más en los países que provienen de la civil law frente a las que tienen su base en la common law, que se apoya en los casos precedentes y que, por tanto, tiende a tener una flexibilidad y adaptabilidad muy superior. Cuando la actuación de personas que retuercen el nuevo entorno para obtener un beneficio ilícito, llámense dialers, spammers, scammers, phishersladrones de identidad, domainers o lo que sea, se convierte en un desincentivo a la difusión de la innovación, la ley tiene que actuar de manera rápida y decisiva, y poner coto a esos abusos de manera inmediata sin que el hecho de que el delito se produzca en internet tenga ningún tipo de influencia sobre su condición de delito. El hecho de que estemos viviendo auténticos episodios de guerra entre países por el espionaje y los ciberataques a través de la red y la comunidad internacional no esté haciendo nada por tipificar y definir este tipo de cuestiones, deslindando claramente lo que son y separándolos de las posibles zonas grises, tiene mucho que ver con lo que ocurre en ese otro ámbito, en el de la definición de los delitos de otros tipos.

¿Necesitamos reeditar el Convenio de Ginebra para adaptarlo al entorno digital? No lo sé. El contexto de las relaciones internacionales tiene una regulación muy compleja e indudablemente enrevesada, pero tener determinadas definiciones por escrito en un documento que provenga de un consenso general y que pueda ser invocado, o utilizado eventualmente como herramienta sancionadora, posiblemente no viniese nada mal. Y de paso, repensar la lentitud con la que la justicia, en general, tiende a adaptarse a los nuevos entornos definidos por la tecnología, y lo que nos termina costando que eso sea así.