Los Expertos Opinan: El sesgo, un problema para la Inteligencia Artificial y para nuestros derechos – Gonzalo Salas (SIA)

Publicado el 12-03-2020      Notícia sobre: Artículos

 

Gonzalo Salas

Senior Manager IT Legal Advisory, Grupo SIA.


Emulando al periodista César Vidal, podríamos decir que corría el año 2002 cuando se estrenó la película de ciencia ficción Minority Report de Steven Spielberg, una película basada en un relato corto, “El informe de la minoría”, y escrito por Philip K. Dick nada más y nada menos que en 1956, que gira en torno a la predestinación y la posibilidad de alterar nuestro futuro si este es conocido de antemano. Seguro que a todos nos viene a la mente la película y el paralelismo con la Inteligencia Artificial, que es un tema que, de un tiempo a esta parte, acapara buena parte de la agenda de trabajo tanto del sector público como privado.  

Las organizaciones quieren minorar sus riesgos porque los reguladores o sus accionistas así se lo exigen y, para ello, es fundamental anticiparse. La única forma es mediante el análisis de datos para establecer patrones predictivos que permitan planificar la reducción de los riesgos o, en su defecto, derivarlos.

La analítica de datos y la definición de patrones predictivos no es nada nuevo. Lo que está cambiando, sin embargo, es su automatismo y su aprendizaje autónomo que nos lleva a la Inteligencia Artificial.

Uno de los muchos problemas frente a los que nos encontramos, más allá del impacto en la intimidad y donde el derecho deberá dar respuesta, es frente al sesgo. Entendiendo el sesgo como error que puede aparecer frente a los resultados de la Inteligencia Artificial, tras el análisis y su interpretación de los datos y que conduce a una organización a conclusiones diferentes a las correctas, o contrarias a nuestro ordenamiento jurídico, por ser injustificadamente discriminatorias, con las correspondientes responsabilidades que puedan surgir en el ámbito civil, administrativo o penal.

Es muy decepcionante ver cómo el legislador, una vez más, llega tarde. La literatura de Isaac Asimov o de Philip Kindred Dick ya nos advertían de lo que podía venir y ha llegado (la Policía Nacional desarrolló en 2018 Veripol, herramienta para detectar denuncias falsas aparentemente con un 90% de efectividad),y lo va a superar.

Es triste ver cómo desde el año 1992, cuando el legislador por primera vez reguló algo de esta materia a través de la LORTAD recogiendo la problemática sobre las valoraciones basadas exclusivamente en datos automatizados (Art. 12), apenas se ha producido una evolución normativa que dote de mayor protección a la ciudadanía:

  • En el año 1999, se incorporó la posibilidad de impugnación de las valoraciones automatizadas, junto con la posibilidad de requerir los criterios de valoración (los algoritmos) y programas utilizados (art. 13 LO 15/99 de 13 de diciembre).
  • En el año 2018, qué magnífica oportunidad perdida, en vez de dotar de mayor protección al ciudadano a sabiendas de lo que se nos venía, el legislador solo incorpora como elemento adicional la posibilidad del afectado de expresar su punto de vista (solo faltaba), eliminando, por otro lado, la posibilidad de requerir los criterios de valoración utilizados por el sistema de toma de decisiones, presumiblemente por dar la nueva legislación mayor valor axiológico a la normativa de propiedad industrial e intelectual, o de secretos empresariales, que a los derechos de la personalidad (art. 22 Reglamento UE 2016/679 del PE y del Consejo de 27 de abril).

Es difícil de entender, desde el concepto de interés general y protección sobre sus ciudadanos, cómo el legislador deriva la carga al afectado por la vía de la impugnación, en vez de establecer otros métodos sobre el propio responsable, desde el establecimiento de normas claras, impositivas y sometidas a supervisión.

La norma deja en una situación clara de desventaja al ciudadano porque, como todo proceso de impugnación tendente a oponerse a una pretensión, requiere de un conocimiento fáctico y jurídico que difícilmente se alcanzará ni aun con los llamados nativos digitales.

Lamentablemente, como veremos, la seguridad jurídica no es una cualidad que pueda predicarse en esta materia. La seguridad jurídica se funda sobre dos pilares: el principio de legalidad y la certeza del derecho. Ni contamos con normas, ni con certidumbres manifiestas, desde el momento que la decisión sale de nuestro control y es ejecutada de manera autónoma por un sistema de procesamiento de datos y, para qué hablar de la transparencia en el proceso, un principio básico de todo tratamiento de los datos. Así, por ejemplo, este pasado 5 de febrero de 2020, un Tribunal de la Haya (Rechtbank Den Haag) ha dictado la que yo creo es la primera sentencia que invalida un algoritmo utilizado por el Gobierno para evaluar los riesgos de fraude, al no cumplir las exigencias de proporcionalidad y transparencia necesarias, vulnerando así el artículo 8 del Convenio Europeo de Derechos Humanos.

Pero no todo es un páramo desértico. Algunos juristas ya están advirtiendo proféticamente sobre la necesidad de poner a la persona como centro de gravedad del sistema. El profesor Moisés Barrio, en su artículo “Robots, Inteligencia Artificial y Persona Electrónica” (Sociedad Digital y Derecho, noviembre de 2018), ya indica que “se hace así evidente la urgente necesidad de definir las condiciones de legitimidad jurídica de los nuevos sistemas robóticos y establecer con precisión un régimen claro de derechos y obligaciones. La primera y esencial cuestión tiene que ver con la existencia de un marco jurídico que garantice un progreso tecnológico que refuerce el desarrollo de la personalidad y los derechos fundamentales, al tiempo que impida que la tecnología se convierta en una vía para hacer a las personas menos humanas y más pasivas, con una autonomía reducida, con una dependencia creciente y una pérdida de la capacidad de iniciativa con una eventual situación de subordinación irreversible que pueda expropiar la libertad y la humanidad misma”.

No puedo estar más de acuerdo con el profesor Barrio. Aristóteles decía que para una correcta eficacia se necesitaba tanto de la formación como de una correcta legislación: Si no se está adecuadamente formado, es difícil encontrar desde la juventud la dirección recta para el ejercicio de la virtud (…) precisamos de Leyes porque la mayor parte de las personas obedecen más fácilmente a la necesidad que a la razón, y a los castigos que la bondad.

Llegados a este punto, ahora nos toca correr y todo son prisas para brindar un marco legal de referencia que dé cobertura normativa a los nuevos y cibernéticos oráculos de Delfos. Este pasado 19 de febrero de 2020, la Comisión Europea publicó su libro Blanco sobre Inteligencia Artificial. Se cuenta también con un grupo de expertos de alto nivel sobre Inteligencia Artificial (AI HLEG) que trabaja sobre un modelo de regulación ética.

No puedo ocultar mi temor a que el legislador acabe abdicando de sus responsabilidades en las organizaciones, en un momento en que en los equipos de desarrollo de IA no se encuentran profesionales que provengan del ámbito de las humanidades y del derecho para defender que los derechos de las personas sean la clave de bóveda de los algoritmos. Y es que cuando corren malos tiempos para el humanismo cristiano que predicaba el cardenal Herrera Oria, lo que va viento en popa es el puro materialismo. Un futuro incierto para la ciudadanía y para los profesionales del derecho.

Global Gold Sponsor