Plantilla: Registro de sistemas de IA en la empresa

Resumen: Plantilla descargable en Excel para documentar todos los sistemas de IA que utiliza tu empresa. Incluye 15 campos por sistema, clasificación de riesgo guiada, ejemplos realistas cumplimentados y un árbol de decisión para determinar el nivel de riesgo. Lista para usar con los datos de tu organización y demostrar cumplimiento ante AESIA o AEPD.

Tipo de documento: Plantilla descargable + guía de cumplimentación · Autora: Ana María González · Directora de CiberAula · Licencia: CC BY-SA 4.0


📥 Descarga la plantilla Excel

Archivo .xlsx con 15 campos, ejemplos cumplimentados, instrucciones y filas vacías para tus sistemas.

⬇ Descargar plantilla (.xlsx)

Compatible con Excel, Google Sheets, Numbers y LibreOffice Calc.


¿Por qué necesitas este registro?

El AI Act exige en la práctica que cualquier empresa que use sistemas IA sepa qué sistemas usa, para qué, con qué datos y qué nivel de riesgo tienen. Sin un inventario:

  • No puedes clasificar los sistemas por nivel de riesgo (obligación crítica).
  • No puedes formar al personal de forma adaptada (artículo 4).
  • No puedes responder a una inspección de AESIA ni de AEPD.
  • No puedes ejercer control de gobernanza sobre el uso de IA.

Este registro es la piedra angular del cumplimiento. Sin él, todo lo demás se derrumba.


Cómo usar esta plantilla

  1. Descarga el archivo Excel con el botón de arriba.
  2. Revisa los 5 ejemplos ya cumplimentados (empresa ficticia de 30 empleados).
  3. Sustituye los ejemplos por los sistemas IA reales de tu empresa, una fila por sistema.
  4. Incluye también la IA embebida en CRM, ERP, correo, suite ofimática, etc.
  5. No olvides el “shadow AI”: uso por parte de empleados con cuentas personales.
  6. Actualiza trimestralmente como mínimo, y cada vez que se incorpore o retire un sistema.
  7. Conserva las versiones anteriores del registro: no sobrescribas, guarda histórico.

Los 15 campos del registro

Cada sistema IA de tu empresa se documenta con estos 15 campos, organizados en 5 bloques:

🏷️ Identificación

1. ID internoCódigo único: IA-001, IA-002… Permite referenciarlo en otros documentos.
2. Nombre comercialNombre del producto (ej: ChatGPT Team, Claude for Work, Gemini Advanced).
3. ProveedorEmpresa que proporciona el sistema (ej: OpenAI, Anthropic, Google).

🏢 Uso en la empresa

4. Finalidad de usoPara qué se usa. Sé específico: "redacción de borradores de contratos", "análisis de CVs en preselección".
5. DepartamentosÁreas de la empresa con acceso al sistema.
6. Nº de usuariosCuántas personas tienen acceso activo.
7. Fecha de inicioCuándo se empezó a usar en la empresa.

🔒 Datos tratados

8. Tipos de datosQué información se introduce: datos personales, financieros, documentos internos, información pública…
9. ¿Datos personales?Sí / No. Si sí, cuáles y en qué volumen aproximado.
10. ¿No-entrenamiento?¿Está contractualmente garantizado que el proveedor no entrena con tus datos? Documento de referencia.

⚖️ Clasificación AI Act

11. Nivel de riesgoInaceptable · Alto · Limitado · Mínimo (ver árbol de decisión abajo).
12. JustificaciónBreve explicación del criterio aplicado y artículos del AI Act relevantes.

🛡️ Gobernanza

13. Responsable internoPersona o departamento responsable del uso correcto.
14. Política de usoReferencia al documento interno que regula su uso (ej: Política de uso de IA v1.0, anexo B).
15. Última revisiónFecha de última revisión de este registro para este sistema.

Árbol de decisión: ¿qué nivel de riesgo tiene tu sistema IA?

Usa este diagrama para clasificar cada sistema de tu registro. Empieza por la primera pregunta y sigue las flechas.

Árbol de decisión — Clasificación de riesgo AI Act ¿El sistema realiza scoring social, manipulación subliminal o vigilancia masiva? INACEPTABLE Retirar ya No ¿Está en el Anexo III? (selección de personal, crédito, educación, infraestructura crítica…) ALTO RIESGO Oblig. ago. 2026 No ¿Interactúa directamente con personas o genera contenido para el público? LIMITADO Transparencia No RIESGO MÍNIMO Sin obligaciones específicas Resumen de obligaciones por nivel Inaceptable: sistema prohibido. Retirar inmediatamente (art. 5 AI Act). Alto riesgo: obligaciones completas desde agosto 2026. FRIA, supervisión humana, registro en AESIA. Limitado: obligación de transparencia. El usuario debe saber que habla con una IA (art. 50). Mínimo: sin obligaciones específicas del AI Act (buenas prácticas recomendadas).

Ejemplo cumplimentado: empresa ficticia de 30 empleados

A continuación, 5 registros realistas que cubren los niveles de riesgo mínimo, limitado y alto. Sustituye estos ejemplos por los datos reales de tu organización en el Excel descargado.

Riesgo mínimo

IA-001 · ChatGPT Team

ProveedorOpenAI
FinalidadRedacción de emails, borradores de informes, traducciones, resúmenes
DepartamentosMarketing, Comercial, Administración
Usuarios · Inicio18 usuarios · Marzo 2025
DatosTextos genéricos, información pública. Sin datos personales sistemáticos.
No-entrenamientoSí (Plan Team incluye cláusula de exclusión)
Justificación riesgoProductividad general sin decisiones sobre personas
Responsable · PolíticaDepartamento IT · Política uso IA v1.0, sección 4

Riesgo mínimo

IA-002 · Claude for Work

ProveedorAnthropic
FinalidadAnálisis de documentos largos, revisión contractual preliminar, redacción técnica
DepartamentosDirección, Asesoría Legal Interna
Usuarios · Inicio4 usuarios · Enero 2026
DatosDocumentos internos (con anonimización obligatoria), contratos pre-firma. Datos personales ocasionales.
No-entrenamientoSí (Plan Work de Anthropic)
Justificación riesgoProductividad profesional sin decisiones automatizadas. Anonimización y supervisión humana obligatorias
Responsable · PolíticaCEO + Asesoría Legal · Política uso IA v1.0, sección 4

Riesgo mínimo

IA-003 · Microsoft Copilot (M365)

ProveedorMicrosoft
FinalidadAsistente integrado en Outlook, Word, Excel, Teams
DepartamentosToda la empresa
Usuarios · Inicio30 usuarios · Septiembre 2025
DatosEcosistema M365 completo. Datos personales por naturaleza (clientes, empleados, correo).
No-entrenamientoSí (Microsoft no entrena sobre datos de tenants empresariales)
Justificación riesgoUso productividad con supervisión humana. Sin decisiones automatizadas sobre personas
Responsable · PolíticaDepartamento IT · Política uso IA v1.0, sección 4

⚠️ Riesgo limitado

IA-004 · Chatbot de atención al cliente

Proveedor[Nombre de tu proveedor de chatbot]
FinalidadAtención al cliente primera línea en la web corporativa
DepartamentosAtención al Cliente
Usuarios · InicioSistema automatizado + 3 agentes humanos · Noviembre 2024
DatosConsultas web: nombre, email, contenido de la consulta. Datos personales: sí.
No-entrenamientoSí (confirmado contractualmente)
Justificación riesgoChatbot que interactúa con personas → debe identificarse como IA desde el primer mensaje (art. 50 AI Act). Escalado a agente humano disponible siempre.
Responsable · PolíticaDir. Marketing + DPO · Política uso IA v1.0, sección 5.3 (transparencia)

🔴 Alto riesgo — Obligaciones completas desde agosto 2026

IA-005 · ATS con filtrado automático de CVs

Proveedor[Nombre de tu ATS]
FinalidadPreselección automatizada de CVs en procesos de selección de personal
DepartamentosRRHH
Usuarios · Inicio3 usuarios · Marzo 2026
DatosCVs, datos personales de candidatos, criterios de valoración. Datos personales: sí, intensivo.
No-entrenamientoSí (revisado contractualmente)
Justificación riesgoSistema listado en Anexo III del AI Act — categoría empleo y RRHH. Obligaciones completas desde agosto 2026. Supervisión humana genuina: revisión obligatoria antes de descartar cualquier CV. EIPD realizada. FRIA pendiente para agosto 2026.
Responsable · PolíticaDir. RRHH + DPO + AESIA (notificación de registro) · Política uso IA v1.0, sección 4 + procedimiento específico anexo C

Autoauditoría: 7 preguntas sobre tu registro

Una vez cumplimentado, revisa tu registro con estas preguntas clave:

1. ¿Hay sistemas de alto riesgo? → ¿Están todas las obligaciones del artículo 6+ planificadas para agosto 2026?

2. ¿Hay sistemas prohibidos? → Retirarlos inmediatamente.

3. ¿Hay chatbots o contenido generativo para el público? → Verificar transparencia: identificación como IA + etiquetado de contenido.

4. ¿Hay sistemas con datos personales sin garantía de no-entrenamiento? → Revisar contratos o cambiar de proveedor.

5. ¿Hay sistemas sin responsable interno asignado? → Asignarlo ahora.

6. ¿Hay sistemas sin política de uso aplicada? → Actualizar la política interna.

7. ¿Hay shadow AI detectado? → Formalizar o prohibir, documentando la decisión.


Frecuencia de actualización del registro

Evento Acción sobre el registro
Se introduce un nuevo sistema IA Nueva fila obligatoria antes del despliegue
Se retira un sistema IA Marcar como “retirado” con fecha. No eliminar la fila
Cambia el plan contratado Actualizar fila correspondiente y fecha de revisión
Cambia el proveedor Nueva fila (el anterior marcado como retirado)
Revisión trimestral rutinaria Actualizar campo “Última revisión” en todas las filas
Entrada en vigor de nueva normativa Revisión extraordinaria con asesoría legal

Registro complementario: incidentes de IA

Además del registro de sistemas, conviene mantener un registro de incidentes para documentar problemas: leaks de datos, resultados erróneos con impacto, denuncias de terceros. Cada incidente se documenta con fecha, sistema implicado, descripción, análisis de causa, medidas correctivas y comunicaciones realizadas (a AESIA, AEPD o afectados).

Este registro de incidentes, aunque no es estrictamente obligatorio, es extremadamente útil para demostrar diligencia preventiva ante una inspección.


Recursos relacionados


Plantilla publicada bajo licencia CC BY-SA 4.0. Libre uso con atribución a CiberAula y enlace a www.ciberaula.com.

Versión 1.1 — 19 de abril de 2026 — © 2026 Ana María González · Directora de CiberAula · Formación online para empresas desde 1997.