Mapa de Riesgos de la Inteligencia Artificial basado en el Repositorio del MIT

Publicado el 12-03-2026      Notícia sobre: ISMS Forum Spain
 

 

Mapa de Riesgos de la Inteligencia Artificial basado en el Repositorio del MIT

El Mapa de Riesgos de la Inteligencia Artificial, desarrollado a partir del AI Risk Repository del Massachusetts Institute of Technology (MIT), ofrece un marco estructurado y accionable para identificar, analizar y gestionar los riesgos asociados al uso de sistemas de IA en las organizaciones.

El proyecto se apoya en los componentes clave del repositorio del MIT, que constituyen su principal valor diferencial:

  • una base de datos centralizada de más de 1.700 riesgos de IA,
  • una taxonomía causal, que permite comprender el origen del riesgo (humano, sistema de IA u otros factores), su intencionalidad y el momento del ciclo de vida en el que se manifiesta, y
  • una taxonomía por dominios de impacto, que agrupa los riesgos según los ámbitos afectados, como privacidad y seguridad, discriminación y toxicidad, desinformación, uso malicioso, interacción humano-máquina, impactos socioeconómicos y ambientales, o fallos y limitaciones del propio sistema de IA.

A partir de estos elementos, el Mapa de Riesgos del MIT permite traducir un ecosistema complejo y disperso en una visión ordenada y operativa, facilitando la integración del riesgo de IA en las matrices corporativas de riesgo, los modelos de ciberseguridad, la protección de datos y los marcos de cumplimiento normativo.

El proyecto incorpora, además, una guía para la creación de un Marco de Control de Riesgos de IA, alineada con estándares internacionales y con los principales requisitos regulatorios europeos, como el AI Act, el RGPD, NIS2 y el ENS. Este enfoque permite conectar riesgos, obligaciones y controles de forma coherente, evitando visiones parciales del cumplimiento y reforzando la rendición de cuentas.

En conjunto, el Mapa de Riesgos de la IA basado en el MIT se consolida como una herramienta práctica para pasar del análisis teórico del riesgo a su gestión real, apoyando la toma de decisiones, la priorización de mitigaciones y la adopción de modelos de gobierno de la IA sólidos, continuos y sostenibles.

ISMS Forum agradece expresamente la colaboración y el conocimiento aportado por todas las personas participantes, cuyo trabajo ha sido clave para dotar al proyecto de rigor técnico y aplicabilidad práctica.

Autores

Coordinación editorial:

Esther Álvarez

Manuel Asenjo

Revisión técnica:

Esther Álvarez

Manuel Asenjo

Yan Bello

Andoni Valverde Villar

Coautoría:

Alessandro Pignati

Amelia Torres Medrano

Andoni Valverde Villar

Andréia Cristina Castellan

Ángela Rodríguez López

Anna Fite

Antonio Camino Salvo

Carlos Martínez Wahnon

Carmen Moreno Ventas

Carolina Hidalgo Paz

David Carrasco Campos

Eduardo Argüeso López

Francisco Javier Carbayo Vázquez

Gisela Reverter Domínguez

Ignacio Hornes Amenedo

Iván Perez

Jose Alberto Ribes Curto

Lily Estrada Ploegmakers

Maria Luisa González Tapia

Maria Ramirez Pretel

Miguel García Cordo

Ramón Baradat

Roger Sanz Gonzalez

Yan Bello Méndez

Edición:

Beatriz García

Coordinación de proyecto:

Susana Marín

Diseño y maquetación:

Susana Marín

 

Global Gold Sponsor