Volver al blog
Buenas prácticas17 min readMay 1, 2026

Clasificación por niveles de riesgo del Reglamento de IA: guía práctica 2026 para pymes europeas

By Anna Bergström

TL;DR

El Reglamento de IA encuadra cada sistema de IA en uno de cuatro niveles de riesgo — Inaceptable, Alto, Limitado y Mínimo — y superpone un régimen paralelo para los modelos de IA de uso general (GPAI). El grueso de las obligaciones se concentra en el nivel de Alto riesgo, con aproximadamente trece deberes sustantivos repartidos entre los Artículos 9 a 49, pero los deberes de transparencia del Artículo 50 alcanzan a prácticamente cualquier chatbot o contenido sintético del mercado, y las prohibiciones del Artículo 5 son ya plenamente aplicables desde el 2 de febrero de 2025. Clasificar mal sale mucho más caro que clasificar bien: las prácticas prohibidas pueden acarrear multas de hasta 35 millones de euros o el 7 % de la facturación mundial anual; los incumplimientos de Alto riesgo, hasta 15 millones o el 3 %; y la información engañosa a las autoridades, hasta 7,5 millones o el 1 %. Para una pyme, la tarea operativa es inventariar todos los casos de uso de IA, pasarlos por un árbol de decisión breve y asignar las obligaciones correspondientes antes de que llegue la oleada de cumplimiento del 2 de agosto de 2026. Esta guía le proporciona el árbol, las trampas que se repiten en auditoría y la lista de verificación nivel por nivel para hacer ese trabajo en un solo trimestre.

Por qué clasificar mal sale más caro que cumplir bien

El Artículo 99 del Reglamento de IA fija unos topes sancionadores deliberadamente más severos que los del RGPD. Incurrir en una práctica prohibida del Artículo 5 puede activar una sanción administrativa de hasta 35.000.000 de euros o el 7 % del volumen de negocios mundial total anual, el importe que sea mayor. El incumplimiento de las obligaciones aplicables a sistemas de Alto riesgo, así como otras infracciones materiales, se sitúa en 15 millones de euros o el 3 %. Suministrar información incorrecta, incompleta o engañosa a los organismos notificados o a las autoridades competentes asciende hasta 7,5 millones de euros o el 1 %. Las pymes y las empresas emergentes se benefician de una mitigación parcial recogida en el Artículo 99, apartado 6: la sanción se calcula sobre el menor de los dos valores en lugar del mayor. Pero esa mitigación atenúa el techo, no lo elimina; sigue tratándose de cifras capaces de poner en jaque la tesorería de una empresa de 30, 50 o 200 personas.

Más allá del importe, el coste estructural es aún mayor. Un sistema mal clasificado tiende a ser un sistema sin expediente de gestión de riesgos, sin política de gobernanza de datos, sin controles documentados de supervisión humana y sin plan de vigilancia poscomercialización. Cuando una autoridad competente reclama cualquiera de esos elementos al amparo del Artículo 21, la carencia no es una cuestión de papeles: implica meses de remediación bajo presión sancionadora. Adaptar a posteriori un marco de control de Alto riesgo a un sistema ya desplegado suele requerir entre tres y seis meses, y cuesta entre dos y cuatro veces más que hacer bien la clasificación desde el principio.

A esto se suma el daño reputacional. La autoridad de vigilancia del mercado puede exigir medidas correctoras al amparo del Artículo 79, incluida la retirada del sistema del mercado de la Unión. Para un proveedor B2B con cláusulas contractuales de garantía de cumplimiento, una sola orden de retirada puede invalidar ingresos en toda la cartera de clientes. Acertar con el nivel en la fase de diseño hace que estos escenarios queden, sencillamente, fuera de juego.

Los cuatro niveles oficiales de riesgo

La pirámide del Reglamento de IA es intencionadamente asimétrica. La inmensa mayoría de los sistemas de IA en circulación en el mercado de la Unión se sitúa en el nivel Mínimo y no acarrea obligación obligatoria alguna. Un grupo reducido pero comercialmente significativo cae en el nivel Limitado y dispara los deberes de transparencia. El nivel de Alto riesgo es estrecho pero pesado en obligaciones. Lo Inaceptable es un suelo duro: estos sistemas no pueden introducirse en el mercado de la Unión. Entender bien dónde están las fronteras entre niveles es, en la práctica, todo el juego.

Riesgo inaceptable (Artículo 5)

Las prohibiciones del Artículo 5 son aplicables desde el 2 de febrero de 2025. No se trata de una declaración de intenciones: un sistema que encaje en cualquiera de estas categorías no puede comercializarse, desplegarse ni utilizarse en la Unión. La lista, tal como quedó redactada, cubre ocho familias de prácticas.

  • Artículo 5, apartado 1, letra a): técnicas subliminales, manipuladoras o engañosas que distorsionen sustancialmente el comportamiento y causen un perjuicio significativo.
  • Artículo 5, apartado 1, letra b): explotación de vulnerabilidades de grupos específicos por edad, discapacidad o situación socioeconómica para distorsionar el comportamiento y causar un perjuicio significativo.
  • Artículo 5, apartado 1, letra c): puntuación social por autoridades públicas o por su cuenta, que conduzca a un trato perjudicial en contextos no relacionados o a un trato injustificado o desproporcionado.
  • Artículo 5, apartado 1, letra d): sistemas de vigilancia predictiva basados únicamente en perfilado o en evaluación de rasgos de personalidad para predecir delitos.
  • Artículo 5, apartado 1, letra e): recolección no dirigida de imágenes faciales de internet o de cámaras de televisión en circuito cerrado para crear o ampliar bases de datos de reconocimiento facial.
  • Artículo 5, apartado 1, letra f): reconocimiento de emociones en el ámbito laboral y en centros educativos, salvo por motivos de seguridad o médicos.
  • Artículo 5, apartado 1, letra g): categorización biométrica que infiera raza, opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida sexual u orientación sexual.
  • Artículo 5, apartado 1, letra h): identificación biométrica remota en tiempo real en espacios accesibles al público con fines policiales, con un conjunto reducido de excepciones sometidas a autorización judicial previa.

Las pymes se topan con las prohibiciones con menos frecuencia de la que temen, pero los puntos de contacto son reales. Funciones de detección de emociones integradas en plataformas de experiencia de cliente, paneles de sentimiento en analítica de recursos humanos y sistemas biométricos de fichaje que infieren atributos demográficos son exposiciones vivas. Si algún caso de uso actual o planificado encaja en el Artículo 5, la única respuesta conforme al Reglamento es rediseñarlo o abandonarlo.

Alto riesgo (Artículo 6 y Anexo III)

Hay dos vías para llegar al nivel de Alto riesgo. La primera es la del Artículo 6, apartado 1: un sistema es de Alto riesgo cuando es en sí mismo un producto, o un componente de seguridad de un producto, regulado por la legislación de armonización de la Unión enumerada en el Anexo II y que requiera evaluación de la conformidad por un tercero. Por esta vía entran los productos sanitarios cubiertos por el Reglamento (UE) 2017/745, las máquinas conforme al Reglamento (UE) 2023/1230, los productos sanitarios para diagnóstico in vitro, los ascensores, los juguetes y varios otros. Las pymes que suministran componentes de software a hardware regulado casi siempre acaban encajando aquí.

La segunda vía, la del Artículo 6, apartado 2, es la que más afecta a las pymes: cualquier sistema enumerado en el Anexo III es de Alto riesgo por defecto. El Anexo III define ocho categorías.

  • Biometría: identificación biométrica remota, categorización biométrica por atributos sensibles (cuando no esté prohibida) y reconocimiento de emociones fuera del trabajo y de la educación.
  • Infraestructuras críticas: componentes de seguridad en la gestión y explotación de infraestructuras digitales críticas, del tráfico rodado y del suministro de agua, gas, calefacción y electricidad.
  • Educación y formación profesional: decisiones de admisión, evaluación de los resultados del aprendizaje, asignación entre centros y detección de comportamientos prohibidos durante exámenes.
  • Empleo, gestión de trabajadores y acceso al trabajo por cuenta propia: selección y contratación (cribado de currículums, ordenación de candidatos), decisiones que afecten a las condiciones laborales, ascensos, despidos, asignación de tareas en función del comportamiento o de rasgos personales y monitorización del desempeño.
  • Acceso a servicios esenciales públicos y privados: elegibilidad para prestaciones públicas, evaluación de la solvencia (con una excepción estrecha para detección de fraude), tarificación de seguros de vida y de salud, y despacho de los servicios de emergencias.
  • Aplicación de la ley: perfilado, polígrafos, evaluación de la fiabilidad de pruebas y predicción de reincidencia respecto de personas físicas.
  • Migración, asilo y control de fronteras: polígrafos, evaluaciones de riesgo de personas físicas, examen de solicitudes de asilo y de visado, e identificación en contextos fronterizos.
  • Administración de justicia y procesos democráticos: asistencia a las autoridades judiciales en la investigación e interpretación de hechos y de la ley, e influencia en el resultado de elecciones o en el comportamiento electoral (excluidos los resultados a los que las personas físicas no estén directamente expuestas).

El Artículo 6, apartado 3, introduce una excepción: un sistema enumerado en el Anexo III no se considera de Alto riesgo cuando no plantee un riesgo significativo de causar un perjuicio para la salud, la seguridad o los derechos fundamentales, en particular porque no influya sustancialmente en el resultado de la toma de decisiones. Las cuatro condiciones del Artículo 6, apartado 3, describen cuándo opera la excepción —tareas procedimentales restringidas, mejora del resultado de una actividad humana ya completada, detección de patrones de toma de decisiones sin sustituir la evaluación humana, o tareas preparatorias—. El perfilado de personas físicas siempre cuenta como influencia significativa y nunca encaja en la excepción. Si una pyme quiere acogerse a esta cláusula, debe documentar su razonamiento y registrar la valoración en la base de datos de la Unión prevista en el Artículo 49.

La mayoría de las obligaciones de Alto riesgo serán aplicables a partir del 2 de agosto de 2026. La rama, más estrecha, ligada a productos del Anexo II entrará en vigor el 2 de agosto de 2027.

Una nota práctica sobre la evaluación de la conformidad del Artículo 43: la mayoría de los sistemas de Alto riesgo del Anexo III sigue la vía del control interno regulada en el Anexo VI. Es el propio proveedor quien autoevalúa la conformidad, redacta la declaración UE de conformidad conforme al Artículo 47 y coloca el marcado CE. No hay organismo notificado en el procedimiento. Las excepciones son los sistemas biométricos del punto 1 del Anexo III, que sí requieren intervención de organismo notificado conforme al Anexo VII, y cualquier sistema de Alto riesgo cubierto además por el Anexo II, donde la evaluación de la conformidad se integra con el procedimiento sectorial existente (productos sanitarios, máquinas y similares). Para una pyme cuya única exposición de Alto riesgo esté en el Anexo III no biométrico, esto supone un alivio real: la ruta pasa por documentación interna y por el registro en la base de datos de la Unión, no por una auditoría externa y la correspondiente tasa de notificación.

Riesgo limitado (Artículo 50)

El nivel de Riesgo limitado es un régimen de transparencia, no de conformidad. No hay organismo notificado, ni marcado CE, ni inscripción en la base de datos de la Unión. Las obligaciones son cuatro.

  • Artículo 50, apartado 1: los proveedores de sistemas de IA destinados a interactuar directamente con personas físicas deben diseñarlos y desarrollarlos de modo que las personas afectadas sepan que están interactuando con un sistema de IA, salvo cuando ello resulte evidente para una persona razonablemente informada.
  • Artículo 50, apartado 2: los proveedores de sistemas de IA que generen contenido sintético de audio, imagen, vídeo o texto deben marcar las salidas en un formato legible por máquina y garantizar su detectabilidad como contenido generado o manipulado artificialmente, mediante soluciones técnicas eficaces, interoperables, robustas y fiables.
  • Artículo 50, apartado 3: los responsables del despliegue de un sistema de reconocimiento de emociones o de un sistema de categorización biométrica (cuando no esté prohibido) deben informar de ello a las personas físicas expuestas.
  • Artículo 50, apartado 4: los responsables del despliegue de sistemas de IA que generen o manipulen contenido de imagen, audio o vídeo que constituya un ultrafalso (deepfake) deben revelar que el contenido se ha generado o manipulado artificialmente. Cuando el contenido forme parte de una obra evidentemente artística, creativa, satírica o de ficción, la obligación se relaja. Los responsables del despliegue de texto generado por IA y publicado para informar al público sobre asuntos de interés público deben revelar que el texto se ha generado o manipulado artificialmente, salvo que se haya producido una revisión editorial humana y exista una persona física o jurídica que asuma la responsabilidad editorial.

Las obligaciones de transparencia del Riesgo limitado son aplicables a partir del 2 de agosto de 2026. La carga de cumplimiento, en términos absolutos, es ligera —un aviso, una marca de agua, una etiqueta del estilo "asistente de IA"—, pero el ámbito es muy amplio: la mayoría de los chatbots y de los flujos de generación de contenido en pymes están dentro del perímetro.

Riesgo mínimo

Todo lo que no sea Inaceptable, Alto o Limitado se queda en el nivel de Riesgo mínimo. Filtros antispam, IA en videojuegos, previsión de inventario, motores de recomendación en comercio electrónico y la mayoría de los asistentes internos de productividad caen aquí. El Reglamento no impone obligaciones vinculantes para los sistemas de Riesgo mínimo. El Artículo 95 invita a proveedores y responsables del despliegue a aplicar voluntariamente las obligaciones del Artículo 50 y a adherirse a códigos de conducta —útiles para construir confianza con los clientes, pero no exigibles legalmente—. El volumen de sistemas en este nivel supera con mucho al de los demás, y la postura operativa correcta consiste en una valoración documentada que sitúe el sistema en Mínimo, más un disparador permanente de revisión cuando cambien las funciones.

El quinto bloque: modelos de IA de uso general (GPAI)

Los Artículos 51 a 55 añaden un régimen paralelo para los modelos de IA de uso general (GPAI): grandes modelos lingüísticos, generadores de imágenes, modelos multimodales fundacionales y similares. El régimen GPAI convive con el sistema de cuatro niveles, no se inserta dentro de él: un caso de uso desplegado arrastra tanto las obligaciones propias de su nivel como las que correspondan a los proveedores de modelo aguas arriba. Las obligaciones GPAI entraron en vigor el 2 de agosto de 2025.

Hay dos capas de obligaciones GPAI. Los proveedores GPAI estándar —cualquiera que introduzca un modelo de IA de uso general en el mercado de la Unión— deben, conforme al Artículo 53, redactar y mantener actualizada la documentación técnica, incluidos los procesos de entrenamiento y prueba y los resultados de la evaluación; poner información y documentación a disposición de los proveedores aguas abajo que integren el modelo en sus sistemas de IA; establecer una política para cumplir con la legislación de la Unión sobre derechos de autor, en particular para identificar y respetar las exclusiones (opt-out) en materia de minería de textos y datos del Artículo 4, apartado 3, de la Directiva (UE) 2019/790; y publicar un resumen suficientemente detallado del contenido utilizado para el entrenamiento, conforme a la plantilla facilitada por la Oficina de IA.

Los proveedores GPAI cuyos modelos se designen como portadores de riesgo sistémico —el Artículo 51 establece esta designación cuando el cómputo acumulado de entrenamiento supere los 10^25 FLOPs (operaciones de coma flotante) o cuando la Comisión Europea designe el modelo en función de capacidades equivalentes— afrontan obligaciones adicionales del Artículo 55: evaluación del modelo, incluidas pruebas adversariales; identificación y mitigación de los riesgos sistémicos a escala de la Unión; seguimiento e información de incidentes graves y posibles medidas correctoras a la Oficina de IA y a las autoridades competentes sin demora indebida; y un nivel adecuado de protección de la ciberseguridad para el modelo y su infraestructura física.

La conclusión práctica para una pyme es que casi con total seguridad usted es responsable del despliegue (deployer) de GPAI, no proveedor. Cuando integra GPT-4o, Claude, Gemini, Mistral Large o Llama en su producto, las obligaciones GPAI las asume el proveedor del modelo. Sus obligaciones se sujetan al caso de uso que esté construyendo encima —su nivel de riesgo conforme a los Artículos 5, 6 o 50— y a las obligaciones de cascada (flow-down) del lado del responsable del despliegue que el proveedor aguas arriba le traslade conforme al Artículo 53, apartado 1, letra b). Una excepción importante del Artículo 25: si modifica sustancialmente un GPAI o introduce un sistema de IA de Alto riesgo en el mercado bajo su propio nombre o marca, pasa a ser proveedor a efectos del Reglamento de IA y hereda las obligaciones correspondientes.

De ser responsable del despliegue de GPAI se derivan dos consecuencias operativas. En primer lugar, debe leer y atenerse a las instrucciones de uso del Artículo 53, apartado 1, letra b), del proveedor aguas arriba. Estas instrucciones suelen incluir límites a los casos de uso permitidos, indicaciones sobre las categorías de datos de entrada admisibles y notas sobre limitaciones conocidas y modos de fallo. Ignorar esas instrucciones es, en sí mismo, un incumplimiento de su lado, aunque el proveedor del modelo aguas arriba haya hecho todo correctamente. En segundo lugar, conviene conservar evidencias de la postura de cumplimiento del proveedor aguas arriba conforme al Artículo 53: el resumen publicado de datos de entrenamiento, los extractos de la documentación técnica compartidos con los proveedores aguas abajo, la declaración de política de derechos de autor. Cuando una autoridad competente le pregunte cómo gestiona su sistema de IA la trazabilidad de los datos de entrenamiento, "usamos un modelo de un tercero" no es una respuesta suficiente: necesitará apuntar a la documentación del proveedor aguas arriba y demostrar que ha incorporado sus restricciones a su despliegue.

Árbol de decisión: clasifique su caso de uso en 8 preguntas

Pase cada caso de uso de su inventario por estas ocho preguntas, en orden. La primera respuesta que dispare fija el nivel. Documente las respuestas: la propia traza de auditoría forma parte de la postura de cumplimiento conforme al Artículo 17.

Pregunta 1. ¿Encaja el caso de uso en alguna prohibición del Artículo 5? Manipulación subliminal que cause perjuicio; explotación de vulnerabilidades; puntuación social por autoridades públicas; vigilancia predictiva basada únicamente en perfilado; recolección no dirigida para reconocimiento facial; reconocimiento de emociones en el trabajo o en centros educativos (fuera de seguridad o medicina); categorización biométrica por atributos sensibles; identificación biométrica remota en tiempo real en espacios públicos con fines policiales. Si la respuesta es sí, el sistema es Inaceptable. Detenga el proceso. El sistema no puede desplegarse. Rediseñar o abandonar.

Pregunta 2. ¿Está el caso de uso en el Anexo III, y no encaja en la excepción de "riesgo no significativo" del Artículo 6, apartado 3? Las categorías del Anexo III son biometría, infraestructuras críticas, educación, empleo, servicios esenciales, aplicación de la ley, migración y fronteras, y justicia y procesos democráticos. Si el sistema está en alguna de estas áreas y, o bien perfila a personas físicas, o bien influye sustancialmente en decisiones, la excepción no opera. Si la respuesta es sí, el sistema es de Alto riesgo. Pase al conjunto de obligaciones de Alto riesgo.

Pregunta 3. ¿La IA es un componente de seguridad de un producto cubierto por la legislación de armonización del Anexo II que exige evaluación de la conformidad por tercero? Productos sanitarios, máquinas, productos sanitarios para diagnóstico in vitro, ascensores, juguetes, embarcaciones de recreo, aviación civil, vehículos a motor, equipos marinos, vehículos agrícolas y forestales. Si la respuesta es sí, el sistema es de Alto riesgo conforme al Artículo 6, apartado 1. La evaluación de la conformidad se integra con la del régimen sectorial existente.

Pregunta 4. ¿Es usted proveedor o responsable del despliegue? Es proveedor si desarrolla el sistema de IA y lo introduce en el mercado de la Unión o lo pone en servicio bajo su nombre o marca, o si modifica sustancialmente un sistema de Alto riesgo ya presente en el mercado. Es responsable del despliegue si utiliza un sistema de IA bajo su autoridad para una actividad profesional. La mayoría de las pymes son responsables del despliegue. El conjunto de obligaciones difiere de forma significativa: los proveedores cargan con la evaluación de la conformidad del Artículo 43; los responsables del despliegue, con las obligaciones de uso del Artículo 26 (supervisión humana, monitorización, registros, información a los trabajadores y a las personas físicas afectadas).

Pregunta 5. ¿Su sistema se construye sobre un modelo de IA de uso general —un LLM, un modelo multimodal, un generador de imágenes—? Las obligaciones GPAI de los Artículos 51 a 55 recaen sobre el proveedor del modelo aguas arriba. Como integrador aguas abajo, recibe documentación técnica e instrucciones de uso conforme al Artículo 53, apartado 1, letra b), y debe utilizarlas correctamente. Su caso de uso, además, sigue necesitando su propia clasificación por nivel.

Pregunta 6. ¿El sistema interactúa directamente con personas físicas —chatbot, asistente de voz, agente virtual, ayudante en aplicación—? Si la respuesta es sí, opera la transparencia del Riesgo limitado del Artículo 50, apartado 1. Las personas afectadas deben quedar informadas de que están interactuando con un sistema de IA, salvo que ese hecho ya resulte evidente por el contexto.

Pregunta 7. ¿El sistema genera o manipula contenido de texto, imagen, audio o vídeo —medios sintéticos, copia de marketing generada por IA, clonación de voz, vídeo deepfake—? Si la respuesta es sí, el Artículo 50, apartado 2, exige el marcado legible por máquina de las salidas como contenido generado artificialmente, y el Artículo 50, apartado 4, exige la divulgación de cara al usuario para los deepfakes y para el texto generado por IA publicado sobre asuntos de interés público. La divulgación se relaja en obras evidentemente artísticas, creativas, satíricas o de ficción, y en contenido editorial revisado por una persona humana.

Pregunta 8. ¿Su modelo se ha entrenado con un cómputo acumulado superior a 10^25 FLOPs, o ha sido designado por la Comisión Europea como portador de riesgo sistémico? Casi ninguna pyme contestará que sí. Si la respuesta es sí, se trata de GPAI con riesgo sistémico conforme al Artículo 55, con evaluación del modelo, mitigación de riesgos, notificación de incidentes graves y obligaciones de ciberseguridad además de las obligaciones GPAI estándar.

Si ninguna de las preguntas 1, 2, 3, 6 o 7 se dispara, el caso de uso queda en el nivel de Riesgo mínimo y no acarrea obligaciones vinculantes más allá del inventario y la revisión periódica. Documente igualmente el resultado negativo: el Artículo 4 (alfabetización en materia de IA) y el Artículo 21 (cooperación con las autoridades) siguen siendo aplicables.

Errores frecuentes de clasificación

Del trabajo de clasificación con clientes pymes en distintos Estados miembros a lo largo de 2025 y entrando en 2026, cinco errores se repiten. Cada uno de ellos deja a una organización a un solo paso de cargar con un conjunto de obligaciones bastante más pesado del que cree estar soportando.

Trampa 1: "Solo usamos ChatGPT, en realidad no estamos haciendo IA". Es la formulación más habitual y la más cara. Conectar GPT-4o a un proceso de cribado de currículums hace dos cosas a la vez: convierte al proveedor del modelo en un proveedor GPAI aguas arriba con obligaciones del Artículo 53, y le convierte a usted en responsable del despliegue de un sistema de empleo de Alto riesgo del Anexo III, con todo el conjunto de obligaciones del Artículo 26, aunque no haya escrito una sola línea de código de modelo. La fórmula "solo usamos" funde en una sola afirmación engañosa dos análisis de nivel que deben hacerse por separado. Hay que separarlos.

Trampa 2: "Es uso interno, así que el Reglamento de IA no se aplica realmente". El Reglamento de IA regula los sistemas introducidos en el mercado o puestos en servicio en la Unión. El despliegue interno es "puesta en servicio" conforme al Artículo 3, punto 11, y entra de lleno en el ámbito de aplicación. Una IA de cribado de recursos humanos utilizada únicamente con candidatos internos es exactamente igual de Alto riesgo que una vendida a otros empleadores. La formulación "uso interno" tampoco es correcta respecto del Artículo 26: el responsable del despliegue debe informar a las personas físicas sometidas a un sistema de Alto riesgo en el lugar de trabajo, sea el sistema un SaaS de un tercero o un desarrollo interno.

Trampa 3: "No hemos entrenado el modelo, así que no somos proveedores". Suele ser cierto, pero el Artículo 25 contiene dos condiciones que invierten esta lógica. Si introduce un sistema de IA de Alto riesgo en el mercado bajo su propio nombre o marca, es proveedor con independencia de quién haya construido el modelo subyacente. Si modifica sustancialmente un sistema de IA de Alto riesgo ya presente en el mercado, pasa a ser proveedor del sistema modificado. Ajustar (fine-tuning) un modelo fundacional con sus propios datos y con cambios significativos en su finalidad prevista es una puerta de entrada habitual al estatus de proveedor —y a la totalidad de la carga de evaluación de la conformidad del Artículo 43—.

Trampa 4: "Nuestro chatbot es de Riesgo mínimo". No bajo el Artículo 50. Cualquier sistema de IA destinado a interactuar directamente con personas físicas dispara la obligación de transparencia del Riesgo limitado. La carga de cumplimiento es ligera —un aviso claro del estilo "está usted conversando con un asistente de IA"—, pero saltársela porque el sistema "parece Mínimo" crea una exposición evitable cuando las obligaciones se vuelvan exigibles el 2 de agosto de 2026.

Trampa 5: "Si el nivel del Reglamento de IA cubre nuestras decisiones automatizadas, el Artículo 22 del RGPD ya está resuelto". No lo está. El Artículo 22 del RGPD reconoce el derecho de toda persona a no ser objeto de una decisión basada únicamente en el tratamiento automatizado que produzca efectos jurídicos o le afecte significativamente de modo similar, con condiciones de consentimiento, necesidad contractual o disposición legal expresa, y el derecho a obtener intervención humana. La supervisión humana del Artículo 14 del Reglamento de IA y el Artículo 22 del RGPD comparten temas pero no son intercambiables: el Artículo 14 es una exigencia de diseño y despliegue que recae sobre el proveedor; el Artículo 22 es un derecho del interesado frente al responsable del tratamiento. Cumplir uno no exonera del otro. Cartografíe ambos para cualquier sistema que tome decisiones consecuentes sobre personas físicas identificables.

Lista de cumplimiento por nivel

Una vez asignado el nivel a un caso de uso, las obligaciones se desprenden de forma mecánica. La lista siguiente resume los entregables sustantivos por nivel. Úsela para dimensionar el backlog de remediación tras el inventario y el árbol de decisión.

Inaceptable: detener y salir

No existe ruta de cumplimiento. Desmantele el caso de uso, rediséñelo para que deje de encajar en el Artículo 5, o salga del mercado de la Unión para ese caso de uso concreto. Documente la decisión y consérvela a efectos de auditoría.

Alto riesgo: línea base de cumplimiento de trece elementos

  • Sistema de gestión de riesgos (Artículo 9): proceso documentado e iterativo a lo largo de todo el ciclo de vida del sistema, que cubra la identificación, la evaluación y la mitigación de los riesgos previsibles para la salud, la seguridad y los derechos fundamentales.
  • Datos y gobernanza de datos (Artículo 10): conjuntos de datos de entrenamiento, validación y prueba pertinentes, suficientemente representativos y, en la medida de lo posible, libres de errores, con medidas documentadas de mitigación de sesgos.
  • Documentación técnica (Artículo 11 y Anexo IV): redactada antes de la introducción del sistema en el mercado, mantenida actualizada y demostrativa de la conformidad con todos los requisitos aplicables.
  • Conservación de registros (Artículo 12): registro automático de eventos relevantes para la identificación de riesgos y para la vigilancia poscomercialización, conservados durante un período adecuado.
  • Transparencia e información a los responsables del despliegue (Artículo 13): instrucciones de uso concisas, completas, correctas, claras, pertinentes, accesibles y comprensibles para los responsables del despliegue.
  • Supervisión humana (Artículo 14): medidas de diseño que permitan a personas físicas supervisar el sistema, intervenir, anular salidas o desconectarlo cuando sea necesario.
  • Precisión, robustez y ciberseguridad (Artículo 15): niveles adecuados declarados en las instrucciones de uso, con resiliencia frente a errores, fallos y tentativas de uso no autorizado.
  • Sistema de gestión de la calidad (Artículo 17): documentado, abarcando la estrategia de cumplimiento, el control del diseño, la gestión de datos, la vigilancia poscomercialización, la notificación de incidentes, la comunicación con autoridades y la gestión de recursos.
  • Evaluación de la conformidad (Artículo 43): control interno para la mayoría de los sistemas del Anexo III; evaluación por tercero para los productos del Anexo II y para los sistemas biométricos del punto 1 del Anexo III.
  • Marcado CE (Artículo 48): colocado de forma visible, legible e indeleble, junto con el número de identificación del organismo notificado cuando proceda.
  • Registro en la base de datos de la UE (Artículo 49): inscripción del sistema en la base de datos de la Unión para sistemas de IA de Alto riesgo antes de su introducción en el mercado o puesta en servicio.
  • Vigilancia poscomercialización (Artículo 72): sistema documentado para recopilar y analizar datos sobre el rendimiento del sistema durante toda su vida útil.
  • Notificación de incidentes graves (Artículo 73): comunicación de cualquier incidente grave a la autoridad de vigilancia del mercado del Estado miembro afectado, dentro de plazos que dependen del tipo de incidente (inmediato para vulneraciones generalizadas de derechos fundamentales; 15 días para la mayoría de los demás).

Riesgo limitado: solo transparencia

Implante las divulgaciones del Artículo 50: aviso claro de que las personas físicas están interactuando con un sistema de IA; marcado legible por máquina de las salidas sintéticas; divulgación, por parte del responsable del despliegue, de los deepfakes y del texto generado por IA publicado sobre asuntos de interés público; y divulgación, por parte del responsable del despliegue, cuando se utilicen sistemas de reconocimiento de emociones o de categorización biométrica permitida. Actualice las condiciones de servicio y los avisos de privacidad para reflejar estas divulgaciones, y conserve un registro de la implementación técnica.

Riesgo mínimo: postura permanente solamente

Documente el resultado de la clasificación, conserve la valoración y revísela siempre que cambien sustancialmente las funciones del sistema o el contexto de uso. Opcionalmente, adhiérase al código de conducta voluntario del Artículo 95 como señal de confianza. Mantenga la formación en alfabetización en materia de IA conforme al Artículo 4 para el personal que opere o utilice el sistema.

Proveedores de GPAI (cuando el Artículo 25 le convierta en uno)

Redacte y mantenga la documentación técnica del Artículo 53; facilite información e instrucciones a los proveedores aguas abajo; implante una política de cumplimiento de los derechos de autor de la Unión que respete las exclusiones de minería de textos y datos; publique el resumen de datos de entrenamiento conforme a la plantilla de la Oficina de IA. Si su modelo supera los 10^25 FLOPs de cómputo acumulado o queda designado conforme al Artículo 51, añada las obligaciones del Artículo 55: evaluación del modelo, mitigación de riesgos sistémicos, notificación de incidentes graves y ciberseguridad del modelo y de su infraestructura.

Cronograma de plazos

Seis fechas marcan el calendario del Reglamento de IA. Calibre su hoja de ruta de remediación en función de ellas.

  • 1 de agosto de 2024: el Reglamento de IA entra en vigor.
  • 2 de febrero de 2025: las prohibiciones del Artículo 5 son aplicables. Las obligaciones de alfabetización en materia de IA del Artículo 4 se aplican a todos los proveedores y responsables del despliegue: el personal que participa en el funcionamiento y el uso de sistemas de IA debe contar con un nivel suficiente de alfabetización en IA.
  • 2 de agosto de 2025: las obligaciones de los proveedores GPAI conforme a los Artículos 51 a 55 son aplicables. Se aplican las disposiciones de gobernanza y régimen sancionador de los Artículos 99 a 101. Los Estados miembros deben designar autoridades competentes y autoridades notificantes.
  • A lo largo de 2026: la Comisión y la Oficina de IA continúan publicando directrices y códigos de buenas prácticas, con orientaciones adicionales sobre la aplicación práctica del Reglamento. Siga las comunicaciones de la Oficina de IA y de la Comisión que sean pertinentes para su nivel de riesgo.
  • 2 de agosto de 2026: la mayor parte de las disposiciones sustantivas del Reglamento de IA son aplicables: obligaciones de Alto riesgo del Anexo III (Artículos 8 a 22, más las obligaciones de los responsables del despliegue del Artículo 26), obligaciones de transparencia del Artículo 50 e inscripción en la base de datos de la Unión. Es la fecha de cabecera para las pymes con sistemas de Alto riesgo no vinculados a productos y para cualquier pyme que opere chatbots de cara al cliente, herramientas de deepfake o generación de contenido por IA.
  • 2 de agosto de 2027: las obligaciones de Alto riesgo del Artículo 6, apartado 1, son aplicables a los sistemas de IA que sean componentes de seguridad de —o productos en sí mismos cubiertos por— la legislación de armonización del Anexo II que requiera evaluación de la conformidad por tercero.

Qué hacer este trimestre

Un plan a 30, 60 y 90 días, calibrado para una pyme sin función madura de gobernanza de IA.

Días 1 a 30 — inventario y arranque. Lance una iniciativa transversal de descubrimiento que cubra producto, ingeniería, recursos humanos, marketing, atención al cliente, finanzas y operaciones. Catalogue todos los sistemas de IA en producción o previstos para los próximos doce meses: el caso de uso, el modelo aguas arriba, los datos, las personas físicas afectadas y el contexto de decisión. Apunte a la exhaustividad antes que a la profundidad: una ficha de una página por sistema basta de momento. Constituya un grupo reducido de gobernanza de IA: un patrocinador del órgano de dirección, un responsable técnico, un responsable jurídico y de cumplimiento, y un enlace con el DPD. Asigne presupuesto a las dos fases siguientes.

Días 31 a 60 — clasificación y análisis de carencias. Pase cada entrada del inventario por el árbol de decisión de ocho preguntas. Registre las respuestas y el nivel resultante. Para cada sistema de Alto riesgo y de Riesgo limitado, realice un análisis de carencias frente a las obligaciones correspondientes. Para cualquier sistema fronterizo del Anexo III, documente expresamente el razonamiento del Artículo 6, apartado 3: las justificaciones vagas no sobreviven a una auditoría. Identifique qué sistemas activan el Artículo 22 del RGPD además de las obligaciones del Reglamento de IA y derive estos casos a una revisión jurídica conjunta.

Días 61 a 90 — hoja de ruta de remediación priorizada. Convierta el análisis de carencias en un backlog con responsables, entregables y plazos, secuenciado contra la fecha del 2 de agosto de 2026. Adelante el trabajo de transparencia del Artículo 50 para chatbots y herramientas de contenido: es de gran volumen, de bajo esfuerzo y demuestra avances. Secuencie los entregables más pesados de Alto riesgo (expediente de gestión de riesgos, documentación técnica, vigilancia poscomercialización) a lo largo de los meses restantes. Presente la hoja de ruta al órgano de dirección para su aprobación y solicite que el Reglamento de IA pase a ser un punto permanente del orden del día del consejo trimestral. Programe la primera auditoría interna para el primer trimestre de 2027.

Dos casos prácticos hacen tangible esta disciplina. Imagine una pyme HR-tech de Madrid de 50 personas que integra GPT-4o para preselección de currículums. Pregunta 1: no está prohibido. Pregunta 2: sí, la selección y contratación está en el punto 4, letra a), del Anexo III. Pregunta 3: no es un producto del Anexo II. Por tanto, Alto riesgo. Pregunta 4: la empresa introduce el sistema en el mercado de la Unión bajo su propia marca; es proveedor. Pregunta 5: construido sobre un modelo GPAI; OpenAI asume aguas arriba las obligaciones del Artículo 53 y la pyme recibe la cascada de documentación técnica. Conclusión: conjunto completo de obligaciones de Alto riesgo de los Artículos 9 a 49, más las obligaciones del Artículo 26 del responsable del despliegue, que se trasladarán además a sus clientes. Fecha efectiva de las obligaciones sustantivas: 2 de agosto de 2026.

Imagine ahora una sociedad de comercio electrónico de Valencia, de 20 personas, que utiliza un chatbot de atención al cliente impulsado por Gemini para preguntas generales sobre productos, sin decisiones automatizadas sobre derechos del consumidor ni precios. Pregunta 1: no está prohibido. Pregunta 2: no figura en el Anexo III. Pregunta 3: no es un producto del Anexo II. Pregunta 6: sí, interacción directa con personas físicas; transparencia del Riesgo limitado conforme al Artículo 50, apartado 1. Conclusión: riesgo subyacente Mínimo, con una única obligación de divulgación del Artículo 50 sobre el propio chatbot. Fecha efectiva: 2 de agosto de 2026. Las dos empresas tienen ya un nivel asignado, una fecha límite y un backlog. Ese es, exactamente, el objetivo del trimestre.

Evalúe su preparación en cumplimiento

Realice nuestra evaluación gratuita de preparación para RGPD, NIS2 y Reglamento de IA y obtenga recomendaciones personalizadas en minutos.

Iniciar evaluación gratuita

EU Compliance Weekly

Get the latest regulatory updates, compliance tips, and enforcement news delivered to your inbox every week.

We respect your privacy. Unsubscribe anytime.