Europa da los primeros pasos de regulación en ciberseguridad con la aprobación del Acta de Inteligencia Artificial

20-06-2023

 

Mientras que los países del G-7 acordaron avanzar con prontitud en la regulación de la Inteligencia Artificial (IA) generativa, como el bot de conversación ChatGPT, para abordar los riesgos que entraña su rápida proliferación, la UE avanzaba en la aprobación del ‘Artificial Intelligence Act’.

Los líderes del G-7 y sus socios reunidos en la cumbre del foro, que arrancó en la ciudad de Hiroshima, en el oeste de Japón, se mostraron de acuerdo en "la necesidad" de establecer mecanismos regulados para gestionar las tecnologías inmersivas y elaborar, para finales de año, propuestas de forma individual que luego sean puestas en común para este fin.

Desde esta perspectiva, las propias compañías han creado equipos multidisciplinares para poder sacar el máximo partido a la IA y minimizar sus riesgos, como se ha podido ver en los distintos eventos que ha organizado ISMS Forum a lo largo de este año.

En este trabajo comparten estrategias los equipos jurídicos, con los técnicos junto a las propias direcciones de las compañías que apoyan estas estrategias.

Por su parte, las medidas recogidas por la Unión Europea se enmarcan dentro del Acta de la Inteligencia Artificial, siendo esta la primera recopilación de indicaciones para regular y legislar el uso de la IA.

Entre todas las medidas que se recogen a lo largo del texto propuesto hay varias van destinadas a instrumentos concretos como el ChatGPT.

El ‘Artificial Intelligence Act’ o ‘AI Act’ ha sido aprobada con 84 votos a favor, 7 en contra y 12 abstenciones. El texto tendrá ser todavía validado por el pleno de la Eurocámara, probablemente a mediados de junio.

Desde ese momento, podrán comenzar las negociaciones con el Consejo (es decir, los Estados), que ya fijó su posición en diciembre, y con la Comisión, los denominados trílogos, para acordar un texto final.

El comisario detrás de la propuesta legislativa, Thierry Breton, ha manifestado su esperanza de que la Ley de Inteligencia artificial pueda entrar en vigor en los Veintisiete, como tarde, en 2025.

Prohibido el reconocimiento facial

Entre las medidas ya aprobadas destaca la prohibición del uso del reconocimiento facial.

“Las cámaras de reconocimiento facial de las calles o el análisis en vivo del metraje de las videocámaras de vigilancia se deberán parar”, explica Ella Jakubowska, abogada en la organización European Digital Rights. Tampoco estará permitido hacer búsquedas de personas a partir de imágenes, cerrándole las puertas a aplicaciones del tipo Clearview.

Esta norma es interesante, ya que llega justo después de la multa a la GSMA por la utilización de este sistema biométrico para el acceso al MWC 2023 celebrada en Barcelona. El ‘AI Act’ prohíbe la recopilación de datos biométricos para su posterior categorización junto con el rastreo de estas imágenes.

Por su parte, ChatGPT tendrá que compartir información con la Unión Europea, ya que se busca que la Inteligencia Artificial no genere ningún tipo de modelo basado en contenidos protegidos por derechos de autor. Además, OpenAI deberá indicar la información en la que se ha entrado a esta IA para así estar completamente seguros de que no se usó información protegida.

El reto de crear una Agencia de control internacional

En España, la secretaria de Estado para la Digitalización e Inteligencia Artificial, Carme Artigas, ha planteado recientemente la idea de crear una agencia internacional encargada de supervisar y regular el desarrollo de la inteligencia artificial. En un contexto en el que la IA está cada vez más presente en nuestra sociedad.

Carme argumenta que es fundamental establecer un estándar moral en lugar de limitarse a definir un marco legal.

Con el crecimiento exponencial de la IA, surge la necesidad de establecer normas y principios éticos que guíen su desarrollo y uso. Carme Artigas sostiene que la regulación de la IA no puede limitarse a una definición de estándares legales, sino que también debe incluir una dimensión moral.

La propuesta de Artigas plantea varias implicaciones importantes donde cabe destacar la creación de una agencia internacional de supervisión de la IA que podría actuar como un organismo independiente y neutral encargado de establecer y hacer cumplir los estándares éticos en el desarrollo y uso de la tecnología. Esto ayudaría a garantizar que la IA se utilice de manera responsable y no perjudicial para la sociedad.

Además, esta agencia tendría la capacidad de coordinar y colaborar con otras entidades y organismos nacionales e internacionales relacionados con la IA. Esto permitiría un enfoque integral y coherente en la regulación y supervisión de la tecnología, evitando la fragmentación y la falta de armonización en los enfoques regulatorios.

Respecto a los beneficios y desafíos de la supervisión ética de la IA, los expertos señalan que promovería la confianza y la aceptación pública de la tecnología, establecería y aplicaría estándares éticos, generando mayor transparencia y responsabilidad en el desarrollo de la IA, lo que contribuiría a disminuir los temores y preocupaciones sobre posibles impactos negativos.

Asimismo, la supervisión ética podría fomentar la innovación responsable, establecería límites claros y principios éticos, se incentivaría el desarrollo de soluciones de IA que beneficien a la sociedad en su conjunto, evitando la creación de tecnologías perjudiciales o discriminatorias.

No obstante, la creación de una agencia internacional de supervisión de IA también plantea desafíos y consideraciones. Uno de dichos desafíos es lograr un consenso global sobre los estándares éticos de ella, considerando las diferentes culturas, valores y contextos legales de cada país.

Además, es importante asegurar la independencia y la imparcialidad de esta agencia para evitar influencias indebidas en su funcionamiento.

Orange y su estrategia de IA

A nivel empresarial, para multinacionales como Orange, líder en el sector de telecomunicaciones, el uso de la IA es ya una realidad. Esta compañía es consciente de que la implementación de estas tecnologías forma parte su vocación innovadora. En Orange la actividad relacionada con la IA viene vertebrada por dos grandes áreas donde trabajan Carmen Reina, Responsable de big data, y Maria José Gallego, DPO.

“Desarrollamos casos de uso para unidades de negocios a través de técnicas de big data e Inteligencia Artificial. También fomentamos la cultura del dato para que los empleados sepan utilizar los datos de forma beneficiosa para la empresa. Con este objetivo transformador, mi papel es comprobar que todos los roles estén cubiertos con las formaciones que ponemos a su disposición”, afirma Carmen.

En cuanto a Maria José Gallego, reconoce que, como Delegada de Protección de Datos, su papel es fundamental es garantizar el cumplimiento de la normativa de protección de datos y promover prácticas éticas desde el diseño y desarrollo de los proyectos que se acometen en Orange. “Mi especialidad es la supervisión y el asesoramiento, que la compañía disponga del correspondiente análisis de riesgos y una evaluación de impacto de cualquier tratamiento. En el caso que nos ocupa, la IA ha pasado a ser uno de los casos más relevantes donde son necesarios esos análisis de riesgo, garantizando siempre, la transparencia y el cumplimiento de los derechos de los interesados”.

Ambas expertas son conscientes del debate que se ha abierto sobre el uso de la Inteligencia Artificial y su evolución en los últimos meses, con opiniones para todos los gustos, ya sea en la defensa de la tecnología o en la necesidad de controlar su desarrollo.

Carmen Reina confirma que “gracias a las nuevas tecnologías de procesados de datos masivos, somos capaces de generar valor a la compañía a través del uso de técnicas de Inteligencia Artificial”. Añade que “estamos incorporando nuevas tecnologías a nuestra actividad debido a que ahora tenemos capacidad técnica para ello”.

El mundo digital ha ido avanzando a lo largo de los años, permitiendo realizar una comparación con el pasado año. “No hemos hecho más que empezar, el 2022 fue un año disruptivo para la IA y parece ser que los usuarios han permitido que, poco a poco, esta tecnología se adentre en su vida de forma muy amigable. Ya hay cierta concienciación del nuevo paradigma que vamos a tener y, a partir de ahora, veremos un avance muy rápido de la tecnología. Llegaremos a ver cómo la computación cuántica nos ayudará, entre otras cuestiones, a descubrir nuestro propio cerebro”.

Para Maria José Gallego “la Inteligencia Artificial nos permite gestionar datos de diferente tipología, como imágenes de vídeo o textos, y esto supone una importante evolución frente a la anterior estructuración de datos, más básica”.

En su opinión, “hay que situarse en primera línea en este desarrollo, con los controles y garantías oportunas, porque nos aportan muchos beneficios y mejoran nuestra actividad en el día a día”

Cuidado con los riesgos de la Inteligencia Artificial

Respecto a los riesgos del uso de esta tecnología, Carmen Reina señala que “nos preocupa, y es algo que tenemos siempre presente a la hora de utilizarlas, que todas estas tecnologías sean éticas y que se desarrollen poniendo siempre a las personas en el centro y no se utilicen de forma perjudicial”.

Al mismo tiempo nos señala que “estamos muy implicados con todas las políticas europeas que se están poniendo en marcha porque estamos convencidos de que la IA ayuda al progreso y la innovación. Así participamos en una iniciativa de compartición de datos que patrocina el Gobierno de España a nivel europeo”.

Maria José Gallego reconoce ese uso positivo de la IA, “pero también nos tenemos que proteger de fenómenos como los ciberataques, desinformación etc.. En Orange, además, como operador de telecomunicaciones tenemos la obligación de colaborar con las Fuerzas y Cuerpos de Seguridad del Estado cuando se investigan hechos delictivos que pueden tener su origen en el uso ilegítimo de la IA. El lado oscuro está ahí y la tecnología no impedirá que surjan nuevos marcos delictivos”.

Eso va a hacer que “en empresas como la nuestra se creen equipos multidisciplinares, donde la colaboración con el Ministerio del Interior y de Defensa puede ser clave. La implementación de la IA es un reto a nivel de seguridad de las empresas y es fundamental establecer marcos legales y éticos sólidos para mitigar los riesgos asociados con el uso ilegítimo de la IA”.

 

Global Gold Sponsor