Voltar ao blogue
Boas práticas17 min readMay 1, 2026

Classificação por níveis de risco do Regulamento da IA para PME da UE: guia prático 2026

By Anna Bergström

Em síntese

O Regulamento da IA arruma cada sistema de IA em um de quatro níveis de risco — Inaceitável, Alto, Limitado e Mínimo — e sobrepõe um regime paralelo para os modelos de IA de finalidade geral (GPAI). O grosso da carga regulatória vive no nível Alto, que arrasta cerca de treze obrigações substantivas dos artigos 9.º a 49.º, mas os deveres de transparência do nível Limitado (artigo 50.º) abrangem qualquer chatbot e qualquer deepfake colocados no mercado, e as proibições do artigo 5.º são exigíveis desde 2 de fevereiro de 2025. Classificar mal sai muito mais caro do que classificar bem: as coimas por práticas proibidas chegam a 35 milhões de euros ou 7 % do volume de negócios mundial; o incumprimento das obrigações de alto risco custa até 15 milhões ou 3 %; prestar informação enganosa às autoridades ainda fica em 7,5 milhões ou 1,5 %. Para uma PME, a tarefa prática consiste em inventariar todos os casos de uso de IA, passar cada um por uma árvore de decisão curta e atribuir obrigações antes da grande vaga de aplicabilidade de 2 de agosto de 2026. Este guia entrega a árvore, as armadilhas mais comuns e a lista de verificação por nível de que precisa para concluir esse trabalho num único trimestre.

Porque classificar mal sai mais caro do que cumprir bem

Antes de entrarmos na mecânica, vale a pena fixar a aritmética que torna esta análise inadiável. O Regulamento da IA estrutura as suas sanções em três escalões e o nível mais elevado é, na prática, o mais alto de qualquer regulamento digital da União: até 35 milhões de euros ou 7 % do volume de negócios mundial (consoante o que for mais elevado) por colocar no mercado ou utilizar um sistema cuja prática esteja proibida pelo artigo 5.º. Para uma PME com 12 milhões de receita anual, isto significa uma exposição teórica que excede o valor da própria empresa — uma única decisão de produto mal calibrada pode liquidar o negócio.

O segundo escalão — incumprimento das obrigações de alto risco — chega a 15 milhões de euros ou 3 % do volume de negócios mundial, o que continua a destruir balanços de PME. Inclui falhas de gestão de riscos, governação dos dados, supervisão humana, vigilância pós-comercialização e dezenas de outros deveres concretos. Não é uma sanção meramente teórica: as autoridades nacionais de fiscalização do mercado herdam infraestrutura de aplicação da legislação dos produtos e da concorrência, com poderes inspetivos comprovados.

O terceiro escalão sanciona quem prestar informação incorreta, incompleta ou enganosa às autoridades competentes, aos organismos notificados ou na base de dados da UE. O teto desce para 7,5 milhões ou 1,5 % — mas é o mais provável de ser aplicado a uma PME, porque depende apenas da qualidade da documentação que entrega ou regista, não do desempenho real do sistema. Quem documenta mal cai aqui mesmo que o sistema funcione razoavelmente.

Por contraste, classificar e cumprir corretamente custa fração disso. O custo médio de um programa de conformidade integrado para uma PME que opera dois ou três casos de alto risco situa-se entre 40.000 e 120.000 euros anuais — recursos humanos, ferramentas, auditoria externa e aconselhamento jurídico incluídos. A matemática é brutal: investir agora 80.000 euros para evitar exposição a 15 milhões é uma decisão de gestão de risco que se justifica sozinha. O verdadeiro problema não é o custo da conformidade, é a paralisia que vem de não saber em que nível cada sistema cai.

Os quatro níveis oficiais de risco

O Regulamento define quatro níveis discretos. Cada caso de uso encaixa em exatamente um — não é possível combinar níveis. As obrigações empilham-se por nível: quem está no Alto cumpre também as obrigações de transparência do nível Limitado se interagir diretamente com pessoas singulares; quem está no Limitado não escapa às proibições do Inaceitável caso o sistema cruze essa linha.

Nível 1 — Inaceitável (artigo 5.º)

Proibido. Sem licenciamento, sem derrogações para PME, sem período de adaptação. As proibições do artigo 5.º são exigíveis desde 2 de fevereiro de 2025. Quem operar um destes sistemas está em violação imediata e expõe-se ao escalão sancionatório mais alto.

A lista material das práticas proibidas:

  • Classificação social genérica por autoridades públicas que produza tratamento prejudicial fora do contexto de origem dos dados.
  • Identificação biométrica à distância em tempo real em espaços acessíveis ao público para efeitos de aplicação da lei (com exceções estritas e tipificadas para forças de segurança, todas sujeitas a autorização judicial prévia).
  • Reconhecimento de emoções no local de trabalho ou em estabelecimentos de ensino (com exceções limitadas para razões médicas ou de segurança documentadas).
  • Recolha não direcionada de imagens faciais da Internet ou de circuitos de videovigilância para alimentar bases de reconhecimento facial.
  • Manipulação subliminar — técnicas que atuam abaixo do limiar da consciência ou recurso a técnicas propositadamente manipuladoras ou enganadoras que distorçam materialmente o comportamento e causem dano.
  • Exploração de vulnerabilidades por idade, deficiência ou situação socioeconómica que distorça materialmente o comportamento e cause dano.
  • Policiamento preditivo individual baseado apenas em traços de personalidade, perfis ou avaliações de risco — não confundir com análises de pontos críticos geográficos, que continuam permitidas.
  • Categorização biométrica para deduzir raça, opiniões políticas, filiação sindical, convicções religiosas ou filosóficas, vida sexual ou orientação sexual.

Note-se a leitura ampla: muitas funcionalidades aparentemente inofensivas em produtos comerciais caem aqui. Um sistema de "analítica de bem-estar" que infere o humor dos colaboradores numa plataforma de RH é, na prática, reconhecimento de emoções no trabalho. Um filtro de pontuação de candidatos que penaliza implicitamente sotaques regionais tangencia a categorização biométrica de atributos sensíveis. Se o seu produto cair aqui, redesenhar é a única saída — não há remediação possível.

Nível 2 — Alto risco (artigo 6.º e Anexo III)

É aqui que vive a esmagadora maioria da carga regulatória. Um sistema de IA é classificado como de alto risco em duas circunstâncias: (a) integra-se como componente de segurança de um produto regulado por uma das leis de harmonização do Anexo II (dispositivos médicos, brinquedos, máquinas, ascensores, equipamentos de proteção individual, embarcações de recreio, automóveis, etc.); ou (b) corresponde a uma das oito categorias do Anexo III. A maioria das obrigações é aplicável a partir de 2 de agosto de 2026; sistemas integrados em produtos do Anexo II têm prazo até 2 de agosto de 2027.

As oito categorias do Anexo III, percorridas com cuidado:

  • Identificação e categorização biométrica não proibidas (verificação de identidade que não preencha a definição de identificação à distância em tempo real).
  • Infraestruturas críticas — gestão e operação de redes de transportes rodoviários, ferroviários e aéreos, água, gás, eletricidade, aquecimento e infraestrutura digital crítica.
  • Ensino e formação profissional — admissão e seleção, atribuição a estabelecimentos, avaliação de resultados de aprendizagem, monitorização e deteção de comportamentos proibidos durante exames.
  • Emprego, gestão de trabalhadores e acesso a trabalho independente — triagem de candidaturas, decisões sobre recrutamento e promoção, atribuição de tarefas com base em comportamento ou traços, monitorização e avaliação de desempenho.
  • Acesso a serviços essenciais — elegibilidade para prestações sociais, avaliação de capacidade creditícia (com exceção da deteção de fraude financeira), tarifação de seguros de vida e saúde, despacho de chamadas de emergência e priorização em serviços de emergência médica.
  • Aplicação da lei — avaliação do risco de uma pessoa singular ser vítima ou ofensor, polígrafos e ferramentas similares, avaliação da fiabilidade da prova durante investigações criminais, perfilagem em investigações penais.
  • Migração, asilo e controlo de fronteiras — polígrafos e ferramentas similares, avaliação de risco de migrantes ou requerentes de asilo, exame e avaliação de pedidos, deteção e identificação em controlos de fronteira.
  • Justiça e processos democráticos — assistir autoridades judiciárias na investigação e interpretação de factos e direito, e influenciar o resultado de eleições ou de comportamentos eleitorais (sem incluir resultados administrativos como organização logística).

Cada categoria tem nuances jurisprudenciais que vão aparecer ao longo de 2026 e 2027. Por agora, a regra prática é: se o seu sistema afeta vidas em qualquer destes domínios — mesmo que apenas como ferramenta auxiliar — assuma a classificação Alto até prova em contrário. A defesa "é apenas uma sugestão, a decisão final é humana" não chega: o critério legal é se o sistema produz um resultado utilizado nas decisões enumeradas, não se a decisão final é automatizada.

Nível 3 — Risco limitado (artigo 50.º)

Obrigações de transparência. Não há marcação CE, não há sistema de gestão de qualidade, não há registo na base UE — mas há deveres de divulgação que se aplicam a praticamente todos os produtos modernos. Aplicabilidade em 2 de agosto de 2026.

As três obrigações chave do artigo 50.º:

  • Sistemas de IA destinados a interagir diretamente com pessoas singulares (chatbots, assistentes de voz, agentes virtuais) têm de informar a pessoa de que está a interagir com um sistema de IA — exceto se for óbvio para um utilizador razoavelmente informado e atento ou se a interação se enquadrar em fins de prevenção de crime.
  • Conteúdos sintéticos ou manipulados — imagens, vídeos, áudios e textos gerados ou alterados artificialmente — têm de ser rotulados como tal de forma legível por máquina e detetáveis. As deepfakes acrescentam exigências adicionais de divulgação visível.
  • Texto gerado por IA publicado para informar o público sobre matérias de interesse público tem de ser divulgado como gerado artificialmente, salvo se tiver passado por revisão editorial humana com responsabilidade jornalística.

Subestimar este nível é o erro silencioso mais comum. Um chatbot de apoio ao cliente é "apenas" um chatbot — mas falha o artigo 50.º se não se identificar. As coimas por falhas de transparência caem no escalão geral (até 15 milhões ou 3 %), o mesmo do incumprimento de alto risco. A boa notícia é que cumprir é trivial: uma frase no início da conversa, um aviso no rodapé das imagens geradas, metadados de proveniência (C2PA é o padrão emergente).

Nível 4 — Risco mínimo

Tudo o que não cair nos três níveis anteriores. Filtros antispam baseados em IA, motores de recomendação de catálogo simples, IA em videojogos, classificação automática de fotografias para arrumação de biblioteca pessoal. Sem obrigações vinculativas. O artigo 95.º incentiva a adesão voluntária a códigos de conduta — útil para sinalização ao mercado, mas não exigível. A maioria dos produtos de consumo da sua empresa caberá aqui; resista à tentação de "elevar de nível por precaução": isso só infla custos sem benefício e dilui o orçamento de conformidade dos sistemas que verdadeiramente requerem atenção.

O quinto bloco: modelos de IA de finalidade geral (GPAI)

Os artigos 51.º a 55.º criam um regime paralelo para os modelos de IA de finalidade geral — modelos treinados em vastas quantidades de dados que conseguem desempenhar competentemente um amplo leque de tarefas distintas e podem ser integrados a jusante em sistemas e aplicações diversos. Pense em GPT-4o, Claude 4, Gemini, Llama, Mistral. Aplicabilidade em 2 de agosto de 2025 — ou seja, já em vigor.

Existem dois subníveis dentro do regime GPAI:

GPAI padrão. Aplicam-se a todos os fornecedores de modelos de finalidade geral, independentemente do tamanho. As obrigações chave: documentação técnica do modelo (Anexo XI, dirigida ao Serviço de IA da UE), instruções para os fornecedores a jusante que integram o modelo nos seus sistemas (Anexo XII), política de respeito pelo direito de autor da União — incluindo a reserva de direitos do artigo 4.º(3) da Diretiva 2019/790 — e um resumo suficientemente pormenorizado dos conteúdos usados para treino do modelo, segundo o modelo aprovado pelo Serviço de IA.

GPAI com risco sistémico. Aplica-se a modelos cuja computação cumulativa de treino exceda 10^25 FLOPs ou que a Comissão designe como tendo capacidades de elevado impacto. Em cima das obrigações padrão acumulam-se: avaliação do modelo segundo protocolos comparáveis ao estado da arte, avaliação e mitigação dos riscos sistémicos potenciais (incluindo riscos de produção de conteúdos ilegais ou prejudiciais), comunicação de incidentes graves ao Serviço de IA e às autoridades nacionais competentes, e proteção adequada de cibersegurança aplicada ao modelo e à sua infraestrutura física.

Para a PME média, importa interiorizar uma realidade: a esmagadora maioria das PME europeias é responsável pela implantação (deployer) de GPAI, não fornecedora. Quando integra GPT-4o por API no seu produto, está a usar um modelo de outrem; as obrigações de fornecedor recaem na OpenAI, não na sua empresa. As suas próprias obrigações organizam-se em duas frentes: (a) o uso adequado a jusante exigido pelas instruções do fornecedor — leia-as e cumpra-as — e (b) a classificação correta do caso de uso que constrói por cima do modelo. Se o seu sistema cair no Anexo III, é Alto risco — independentemente de o GPAI subjacente ser de outro. Não escapa pela porta dos fundos invocando "estamos só a usar o ChatGPT".

Árvore de decisão: classifique o seu caso de uso em 8 perguntas

Use esta árvore por cada sistema de IA do seu inventário. Responda sequencialmente; pare assim que uma pergunta atribuir um nível.

Pergunta 1 — Práticas proibidas. O sistema implementa alguma das práticas proibidas previstas no artigo 5.º (classificação social, biometria à distância em tempo real para aplicação da lei, reconhecimento de emoções no trabalho ou ensino, raspagem facial não direcionada, manipulação subliminar, exploração de vulnerabilidades, policiamento preditivo individual, categorização biométrica de atributos sensíveis)? Se sim → Inaceitável. Pare e redesenhe.

Pergunta 2 — Componente de segurança regulado. O sistema é um componente de segurança de um produto sujeito à legislação de harmonização do Anexo II (dispositivos médicos, máquinas, brinquedos, ascensores, equipamentos de proteção, automóveis, etc.) e está sujeito a uma avaliação de conformidade por terceiros nos termos dessa legislação? Se sim → Alto risco (artigo 6.º, n.º 1).

Pergunta 3 — Categorias do Anexo III. O caso de uso enquadra-se numa das oito categorias do Anexo III (biometria não proibida, infraestrutura crítica, ensino, emprego, serviços essenciais, aplicação da lei, migração e fronteiras, justiça e processos democráticos)? Se sim → Alto risco — exceto se conseguir documentar uma das exceções restritas do artigo 6.º, n.º 3 (tarefa procedimental estrita, melhoria de uma tarefa humana já concluída, deteção de padrões de tomada de decisão sem substituir a decisão humana, ou tarefa preparatória para uma avaliação que nunca afeta diretamente o resultado).

Pergunta 4 — Decisão automatizada com efeito jurídico ou significativo (RGPD artigo 22.º). Mesmo que tenha respondido "não" à pergunta 3, o sistema toma decisões individuais automatizadas que produzem efeito jurídico ou afetam significativamente uma pessoa? Em caso afirmativo, acrescenta-se à classificação do AI Act um conjunto de deveres do RGPD: base jurídica, direito à intervenção humana, direito a contestar a decisão.

Pergunta 5 — Interação direta com pessoas. O sistema interage diretamente com pessoas singulares (chatbot, assistente de voz, agente conversacional)? Se sim, acrescenta-se a obrigação de divulgação do artigo 50.º, mesmo no nível Alto.

Pergunta 6 — Geração de conteúdos sintéticos. O sistema gera ou manipula imagens, áudio, vídeo ou texto que possam ser confundidos com conteúdo autêntico? Se sim → obrigação de rotulagem do artigo 50.º; se gera deepfakes, divulgação visível adicional.

Pergunta 7 — Publicação para o público sobre interesse público. Está a publicar texto gerado por IA sobre matérias de interesse público sem revisão editorial humana com responsabilidade jornalística? Se sim → divulgação obrigatória do artigo 50.º.

Pergunta 8 — Resíduo. Se chegou aqui sem atribuir nível, o sistema é Risco mínimo — sem obrigações vinculativas, código de conduta voluntário do artigo 95.º.

Caso prático A — PME HR-tech de Lisboa, 50 colaboradores, integra GPT-4o para pré-seleção de CV. Pergunta 1: não cai em práticas proibidas. Pergunta 2: não é componente de segurança de produto regulado. Pergunta 3: cai na categoria "emprego" do Anexo III (triagem de candidaturas). Resultado: Alto risco. Pergunta 5: não interage diretamente com candidatos no fluxo descrito. Conclusão: programa completo de alto risco — sistema de gestão de riscos, governação dos dados, documentação técnica, registos automáticos, transparência, supervisão humana, marcação CE, registo na base UE. Mais as obrigações de responsável pela implantação de GPAI: ler e cumprir as condições da OpenAI. Mais o RGPD artigo 22.º se a pré-seleção produz rejeição automatizada.

Caso prático B — PME de e-commerce do Porto, 25 colaboradores, usa um chatbot baseado em modelo de finalidade geral para responder a perguntas frequentes. Pergunta 1: não. Pergunta 2: não. Pergunta 3: não — apoio comercial não cai em nenhuma categoria do Anexo III. Pergunta 5: sim, interação direta com clientes. Resultado: Risco limitado — basta divulgar de forma clara que o utilizador está a falar com IA. Cumprimento trivial; um banner de uma frase resolve.

Erros frequentes de classificação

Cinco armadilhas reais que vemos repetidamente em auditorias a PME europeias:

Erro 1 — "Só usamos o ChatGPT"

A confusão fatal. Usar um GPAI de outrem não dispensa a sua empresa da classificação do caso de uso construído por cima dele. Os dois regimes são paralelos, não alternativos. Se integra a API do GPT-4o num fluxo de triagem de candidatos, a OpenAI tem as suas obrigações de fornecedor de GPAI e a sua empresa tem as suas obrigações de responsável pela implantação de um sistema de alto risco. Saltar esta análise é a forma mais comum de chegar a 2026 com exposição que ninguém viu.

Erro 2 — "É apenas uso interno"

O rótulo "interno" não reduz o nível. A triagem de CV continua alto risco, ofereça-a como produto SaaS a clientes ou use-a apenas para contratar internamente. A classificação assenta na natureza do uso, não no público-alvo. A única exceção real é a investigação científica antes da colocação no mercado ou da entrada em serviço (artigo 2.º, n.º 6) — pré-produção genuína. Tudo o que afete decisões reais sobre pessoas reais conta.

Erro 3 — "Não treinámos o modelo, logo não somos fornecedores"

Quase sempre verdade. Mas o artigo 25.º pode tornar a sua empresa em fornecedora de um sistema mesmo sem o ter treinado, se introduzir uma modificação substancial que altere o desempenho ou a finalidade prevista de forma significativa, ou se rebatizar o sistema com a sua marca sem acordo contratual claro com o fornecedor original. Fine-tuning extensivo, reorientação de finalidade, sistemas multi-agente compostos a partir de modelos de base — todos zonas de risco. Se a sua empresa o faz, peça parecer jurídico antes do lançamento.

Erro 4 — Confundir risco limitado com mínimo

Os chatbots de apoio ao cliente são o exemplo canónico. "Não está em nenhuma categoria do Anexo III, logo é risco mínimo" — errado. Interage diretamente com pessoas, logo cai no artigo 50.º e exige divulgação. Mesma confusão acontece com geradores de imagens promocionais usados em marketing: nível Limitado por causa da rotulagem de conteúdos sintéticos, não Mínimo. A diferença custa pouco a corrigir agora e muito a defender em auditoria.

Erro 5 — Esquecer a sobreposição com o RGPD

A classificação do AI Act não substitui — acresce — às obrigações do RGPD. Em particular, o artigo 22.º do RGPD exige condições especiais para decisões individuais automatizadas com efeito jurídico ou significativamente análogo: base jurídica adequada, informação clara, direito à intervenção humana, direito a contestar. Um sistema de pontuação de crédito é Alto risco no AI Act e decisão automatizada do artigo 22.º do RGPD. Os deveres acumulam-se. Tratar o AI Act isoladamente cria um plano de remediação incompleto.

Lista de conformidade por nível

Use esta lista como ponto de partida. Cada item remete para o artigo correspondente do Regulamento; valide com o seu jurista interno ou externo antes de declarar conformidade.

Inaceitável

Sem lista. Se o seu sistema cai aqui, a única conformidade possível é parar e redesenhar. Não há autorização, não há derrogação para PME, não há remediação. Suspenda o lançamento e inicie um redesenho estrutural que mova o sistema para um nível admissível.

Alto risco — treze ações concretas

  • Sistema de gestão de riscos documentado e mantido ao longo do ciclo de vida (artigo 9.º).
  • Governação dos dados — conjuntos de dados de treino, validação e teste relevantes, suficientemente representativos e isentos de erros (artigo 10.º).
  • Documentação técnica conforme o Anexo IV, atualizada antes da colocação no mercado (artigo 11.º).
  • Capacidade de registo automático de eventos durante a vida do sistema (artigo 12.º).
  • Transparência e fornecimento de informações às pessoas responsáveis pela implantação — instruções de utilização claras (artigo 13.º).
  • Supervisão humana eficaz, com pessoas singulares a supervisionar a operação (artigo 14.º).
  • Exatidão, robustez e cibersegurança adequadas à finalidade prevista (artigo 15.º).
  • Sistema de gestão da qualidade documentado, abrangendo estratégia regulamentar, conceção, controlo de produção, vigilância e remediação (artigo 17.º).
  • Avaliação de conformidade pelo procedimento aplicável antes da colocação no mercado (artigo 43.º).
  • Marcação CE de conformidade aposta de forma visível (artigo 48.º).
  • Registo do sistema na base de dados da UE para sistemas de IA de alto risco (artigo 49.º).
  • Sistema de vigilância pós-comercialização — recolha e análise sistemáticas de dados sobre desempenho real (artigo 72.º).
  • Notificação de incidentes graves às autoridades de fiscalização do mercado, sem demora indevida (artigo 73.º).

Acrescem às obrigações do fornecedor as obrigações específicas do responsável pela implantação (artigo 26.º): utilizar conforme as instruções, garantir supervisão humana, monitorizar o funcionamento, conservar registos e, em sistemas que afetam direitos fundamentais, realizar uma avaliação de impacto sobre direitos fundamentais (artigo 27.º) antes da primeira utilização.

Risco limitado — uma ação principal

  • Cumprir as obrigações de transparência do artigo 50.º: divulgação de interação com IA, rotulagem de conteúdos sintéticos, divulgação de deepfakes, divulgação de texto gerado por IA sobre matérias de interesse público.

Risco mínimo — uma ação opcional

  • Adesão voluntária a um código de conduta nos termos do artigo 95.º. Útil para sinalização ao mercado e para construção de cultura interna; não exigível.

Fornecedores GPAI — obrigações transversais

  • Documentação técnica do modelo conforme o Anexo XI (artigo 53.º).
  • Documentação dirigida aos fornecedores a jusante conforme o Anexo XII (artigo 53.º).
  • Política de cumprimento do direito de autor da União, incluindo o respeito pela reserva de direitos do artigo 4.º(3) da Diretiva 2019/790 (artigo 53.º).
  • Resumo suficientemente pormenorizado dos conteúdos utilizados para treino do modelo, segundo o modelo do Serviço de IA (artigo 53.º).
  • Para GPAI com risco sistémico: avaliação do modelo, mitigação de riscos sistémicos, comunicação de incidentes graves, cibersegurança adequada (artigo 55.º).

Calendário de prazos

Cinco datas para fixar na agenda da direção, sem ambiguidades:

  • 2 de fevereiro de 2025 — entrada em vigor das proibições do artigo 5.º e da obrigação de literacia em IA do artigo 4.º. Já aplicável; quem ainda opera práticas proibidas está em violação.
  • 2 de agosto de 2025 — aplicabilidade das obrigações dos fornecedores de GPAI (artigos 53.º a 55.º), do regime de governação (Serviço de IA da UE, autoridades nacionais), das sanções e das disposições sobre organismos notificados. Já aplicável.
  • 2 de fevereiro de 2026 — prazo para a Comissão emitir orientações sobre a classificação dos sistemas de alto risco e sobre a aplicação prática do artigo 6.º. Marco preparatório, sem novas obrigações diretas.
  • 2 de agosto de 2026 — aplicabilidade da maioria do regime: sistemas de alto risco do Anexo III, obrigações de transparência do artigo 50.º, sanções para incumprimento, base de dados da UE em pleno funcionamento. Esta é a data crítica para a maioria das PME.
  • 2 de agosto de 2027 — aplicabilidade das obrigações para sistemas de alto risco que sejam componentes de segurança de produtos da legislação de harmonização do Anexo II. Prazo final para os setores regulados (medical devices, máquinas, automóveis).

O que fazer este trimestre

Plano 30/60/90 dias para uma PME que ainda não começou:

Dias 1 a 30 — Inventário e classificação. Crie um inventário exaustivo de todos os sistemas de IA em uso, em desenvolvimento ou em piloto. Inclua integrações de terceiros (chatbots, ferramentas de RH, motores de recomendação, assistentes de produtividade). Para cada um, registe finalidade, utilizadores, dados de entrada e saída, fornecedor do modelo subjacente, e percorra a árvore de decisão deste guia. Documente a classificação atribuída e a justificação. Saída: matriz de classificação assinada pelo CEO.

Dias 31 a 60 — Lacunas e plano. Para cada sistema de alto risco, faça uma análise de lacunas contra a lista de treze ações. Para cada sistema de risco limitado, verifique se a divulgação do artigo 50.º está implementada. Para sistemas de risco mínimo, decida se quer aderir voluntariamente a um código de conduta. Para sistemas que caiam em práticas proibidas, suspenda o uso imediatamente e inicie redesenho. Saída: plano priorizado de remediação com responsáveis, prazos e orçamento.

Dias 61 a 90 — Execução das vitórias rápidas e governação. Implemente a divulgação do artigo 50.º (vitória rápida — uma frase em cada chatbot, rotulagem em cada gerador de conteúdos). Inicie a documentação técnica dos sistemas de alto risco. Designe o responsável pela governação da IA na organização. Defina cadência de reporte ao órgão de administração (trimestral). Comece a formação obrigatória de literacia em IA do artigo 4.º — disponível em qualquer formato adequado, desde que registe a conclusão. Saída: governação em funcionamento, primeira ronda de formação concluída, posto de comando para a corrida até 2 de agosto de 2026.

Esta é a frase a fixar acima de qualquer outra: a janela é curta, a sanção é grande e a maior parte do trabalho está em classificar bem. Comece pelo inventário. Tudo o resto decorre disso.

Avalie a sua prontidão para a conformidade

Realize a nossa avaliação gratuita de prontidão para o RGPD, a NIS2 e o Regulamento IA e obtenha recomendações personalizadas em poucos minutos.

Iniciar avaliação gratuita

EU Compliance Weekly

Get the latest regulatory updates, compliance tips, and enforcement news delivered to your inbox every week.

We respect your privacy. Unsubscribe anytime.