El principio de transparencia en la regulación de la inteligencia artificial

Publicado el 21-03-2017      Notícia sobre: Noticias del Sector

 

Diario La Ley - Carlos B Fernández - Marzo 2017

La reciente propuesta del Parlamento Europeo a la Comisión para que elabore unas normas de Derecho Civil sobre robótica, incluye muchos elementos para la reflexión.

Entre los más relevantes se encuentra el principio de transparencia que debe aplicarse a los desarrollos basados en la inteligencia artificial.

Para comprender la importancia de este principio hay que trasladarse por un momento al concepto mismo de inteligencia artificial que se incluye en dicha propuesta (punto 1 de los Principios generales relativos al desarrollo de la robótica y la inteligencia artificial para uso civil).

Este concepto incluye como características de un sistema inteligente, a) la capacidad de adquirir autonomía mediante sensores y el intercambio y análisis de los datos capturados; b) la capacidad de autoaprendizaje a partir de la experiencia y la interacción y, c) la capacidad de adaptar su comportamiento al entorno.

Es decir, son sistemas capaces de aprovechar los datos recibidos para procesarlos y adoptar decisiones autónomas de actuación, mejorando su comportamiento de forma igualmente autónoma.

Pues bien, el principio de transparencia se dirige a permitir conocer el por qué de esas decisiones autónomas de actuación, a la lógica que soporta las decisiones adoptadas por la máquina. Ese principio de transparencia impone que dicha lógica de conducta deba ser visible y comprensible por los seres humanos, como analizamos a continuación.

Las premisas de la propuesta

La propuesta del Parlamento Europeo parte, entre otras, de la muy probable premisa de que “humanidad se encuentra a las puertas de una era en la que robots, bots, androides y otras formas de inteligencia artificial cada vez más sofisticadas parecen dispuestas a desencadenar una nueva revolución industrial” (Introducción, B).

Se considera que esta tendencia “apunta al desarrollo de máquinas inteligentes y autónomas, con capacidad para ser entrenadas para pensar y tomar decisiones de manera independiente” (*) (introducción, G).

Y esa futura capacidad requiere “que los implicados en el desarrollo y comercialización de aplicaciones en inteligencia artificial incorporen desde el principio características de seguridad y ética” (introducción, N).

El marco ético aplicable al desarrollo de la robótica y la inteligencia Artificial

A este fin, la propuesta incluye una relación de principios éticos relativos al desarrollo de la robótica y de la inteligencia artificial para uso civil, que comienzan por la asunción de que “el actual marco normativo de la Unión debe actualizarse y completarse, en su caso, por medio de directrices éticas que reflejen la complejidad del ámbito de la robótica y sus numerosas implicaciones sociales, médicas y bioéticas” a fin de disponer de “un marco ético claro, estricto y eficiente que oriente el desarrollo, diseño, producción, uso y modificación de los robots” (epígrafe 11).

El concepto de ética al que se refiere la propuesta del Parlamento puede extraerse tanto de la letra Q de su introducción (“… la evolución en la robótica y en la inteligencia artificial puede y debe concebirse de modo que preserve la dignidad, la autonomía y la autodeterminación del individuo …”), como, más precisamente, de la letra V de la misma, situada bajo el epígrafe de “Principios generales” que señala que: “…es necesario disponer de una serie de normas en materia de responsabilidad, transparencia y rendición de cuentas que reflejen los valores humanistas intrínsecamente europeos y universales que caracterizan la contribución de Europa a la sociedad…”).

Este marco ético incluye tres bloques de principios.

1. Unos incorporados directamente en la propia Propuesta (epígrafe 13): los principios de beneficencia, no maleficencia, autonomía y justicia.

El contenido de estos principios de detalla en el Preámbulo del Código de conducta ética para los ingenieros en robótica incluido en esta propuesta:

- Principio de beneficencia: los robots deben actuar en beneficio del hombre;

- Principio de no perjuicio, no maleficencia o doctrina de «primero, no hacer daño»: los robots no deberían perjudicar a las personas;

- Principio de autonomía: significa la capacidad de tomar una decisión con conocimiento de causa e independiente sobre los términos de interacción con los robots;

- Principio de Justicia: hace referencia a la distribución justa de los beneficios asociados a la robótica y la asequibilidad de los robots utilizados en el ámbito de la asistencia sanitaria a domicilio y de los cuidados sanitarios en particular.

Puedes consultar la noticia completa aqui, Diario La Ley

Global Gold Sponsor