A unidade especializada em regulação de inteligência artificial do ecossistema Regimes Jurídicos de Portugal. AI Compliance Officer externo, classificação de riscos, programas de conformidade AI Act, governance responsável, auditorias de sistemas de IA, formação técnica integrada e repositório documental.
O Regulamento (UE) 2024/1689, conhecido como AI Act, constitui o primeiro quadro jurídico abrangente do mundo para a inteligência artificial. Adoptando uma abordagem baseada em riscos, o AI Act classifica os sistemas de IA em diferentes categorias e impõe obrigações proporcionais aos riscos que apresentam para a saúde, segurança e direitos fundamentais.
O regulamento aplica-se a fornecedores, importadores, distribuidores e implementadores de sistemas de IA, abrangendo praticamente toda a cadeia de valor. As organizações que desenvolvem, disponibilizam ou utilizam sistemas de IA devem avaliar os seus sistemas, implementar controlos adequados e garantir conformidade com os requisitos aplicáveis.
Os nossos serviços, estruturados nos quatro pilares — Consultoria, Assessoria, Auditoria e Formação — apoiam as organizações na navegação deste novo quadro regulatório, desde a classificação de sistemas de IA até à implementação de programas de compliance adequados.
O AI Act classifica os sistemas de inteligência artificial em quatro níveis de risco, aplicando obrigações proporcionais ao grau de risco que cada sistema apresenta para a saúde, segurança e direitos fundamentais.
Sistemas proibidos — manipulação subliminar, exploração de vulnerabilidades, scoring social, identificação biométrica remota em tempo real em espaços públicos (com excepções limitadas).
Proibidos desde Fevereiro de 2025Sistemas listados no Anexo III — infra-estruturas críticas, educação, emprego, serviços essenciais, aplicação da lei, migração, justiça. Requisitos: gestão de riscos, governance de dados, documentação técnica, transparência, supervisão humana, exactidão e robustez.
Obrigações aplicáveis a partir de Agosto de 2026Sistemas sujeitos a obrigações de transparência — chatbots, sistemas de geração de conteúdo (deepfakes), sistemas de reconhecimento de emoções e categorização biométrica. Os utilizadores devem ser informados de que interagem com IA.
Obrigações de transparênciaSistemas sem restrições adicionais — filtros de spam, videojogos com IA, sistemas de inventário. Encorajada a adesão voluntária a códigos de conduta.
Utilização livre com boas práticasProcesso iterativo e contínuo de identificação, análise, estimativa e avaliação dos riscos associados ao sistema de IA (artigo 9.º).
Garantia de qualidade, representatividade e adequação dos conjuntos de dados de treino, validação e teste (artigo 10.º).
Documentação completa do sistema antes da colocação no mercado, incluindo finalidade, exactidão e limitações (artigo 11.º e Anexo IV).
Instruções de utilização claras e informação sobre capacidades, limitações e riscos do sistema (artigo 13.º).
Sistemas concebidos para permitir supervisão efectiva por seres humanos durante a sua utilização (artigo 14.º).
Níveis adequados de exactidão, robustez e cibersegurança ao longo do ciclo de vida do sistema (artigo 15.º).
O Artificial Intelligence Compliance Officer (AICO) é a resposta especializada às organizações que desenvolvem, disponibilizam ou utilizam sistemas de inteligência artificial sujeitos ao Regulamento (UE) 2024/1689 (AI Act). Tal como o DPO externo se consolidou como função essencial na protecção de dados (V01) e o CISO na cibersegurança (V04), o AICO surge como a função dedicada que assegura a conformidade, a governance e a prestação de contas em matéria de IA.
O AICO externo é particularmente relevante para organizações que não dispõem de um especialista interno com capacidade de cobrir todas as dimensões regulatórias do AI Act, ou que necessitam de reforço especializado na articulação entre o AI Act, o RGPD, a Directiva NIS2 e os demais regimes aplicáveis. O serviço funciona em regime de avença mensal, com níveis de serviço adaptados à dimensão e complexidade dos sistemas de IA da organização.
Mapeamento exaustivo de todos os sistemas de IA utilizados pela organização e classificação segundo as categorias de risco do AI Act, incluindo análise de sistemas embebidos em software de terceiros.
Implementação e manutenção do sistema de gestão de riscos (artigo 9.º), documentação técnica (artigo 11.º), registo de actividades e procedimentos de monitorização pós-comercialização.
Coordenação permanente com o Encarregado de Protecção de Dados (V01) e o CISO (V04), assegurando a conformidade convergente AI Act–RGPD–NIS2 e a avaliação integrada de riscos.
Monitorização contínua da conformidade, relatórios periódicos à direcção, acompanhamento de alterações regulatórias e representação perante a autoridade competente.
Implementação do programa de literacia em inteligência artificial exigido pelo artigo 4.º do AI Act, com formação adaptada a todos os níveis da organização.
Condução das avaliações de impacto sobre os direitos fundamentais (artigo 27.º) para sistemas de IA de alto risco, incluindo medidas de mitigação e documentação obrigatória.
O vector integra o regime regulatório europeu da inteligência artificial e os regimes com articulação directa, formando um quadro de conformidade integrado que exige coordenação entre múltiplas obrigações regulatórias.
Proibição de práticas de risco inaceitável (artigo 5.º).
Obrigações para modelos de IA de uso geral (GPAI) e IA generativa (Capítulo V).
Obrigações para sistemas de IA de alto risco listados no Anexo III e restantes disposições.
Obrigações para sistemas de IA de alto risco que sejam componentes de segurança de produtos (Anexo I).
Monitorização regulatória, actualização de normas harmonizadas e actos delegados.
O artigo 4.º do AI Act impõe a obrigação de literacia em matéria de IA como componente essencial de qualquer programa de conformidade. A formação adequada de equipas é requisito regulatório e vantagem competitiva.
Destinado a AI Officers, compliance officers, directores jurídicos, directores de TI e inovação, e gestores de risco.
Exercício prático com mapeamento de sistemas de IA reais, classificação segundo o Anexo III e identificação de obrigações aplicáveis.
Simulação realista de avaliação de impacto nos termos do artigo 27.º do AI Act, incluindo documentação, avaliação de riscos e medidas de mitigação.
Formação técnica integrada com a Academia de Compliance e a Academia de Cibersegurança. O artigo 4.º do AI Act impõe a obrigação de literacia em IA — a formação adequada é requisito regulatório e vantagem competitiva.
O Programa é estruturado em módulos autónomos mas articulados, desenhados para AI Officers, compliance officers, directores de TI, responsáveis de inovação e membros de órgãos de gestão. Integra as dimensões jurídica, técnica e ética da conformidade com o AI Act.
Arquitectura regulatória, âmbito de aplicação, definições-chave, articulação RGPD–NIS2–DSA, calendário faseado.
Metodologia de classificação (Anexo III), exercício prático de mapeamento, sistemas embebidos em software de terceiros.
Gestão de riscos (art. 9.º), governance de dados (art. 10.º), documentação técnica (art. 11.º), transparência (art. 13.º), supervisão humana (art. 14.º).
Obrigações para modelos GPAI, requisitos para risco sistémico, conteúdo gerado por IA, direitos de autor.
Estrutura de governance, autoridades competentes, regime sancionatório, função do AICO, articulação DPO–CISO, literacia.
Exercício prático de AIDF (artigo 27.º), identificação de riscos, mitigação e documentação obrigatória.
Protecção de dados (RGPD), prevenção da corrupção (RGPC), governance corporativa e responsabilidade regulatória.
academiadecompliance.ptCibersegurança, resiliência operacional, NIS2. Cobertura dos requisitos de exactidão, robustez e cibersegurança (artigo 15.º).
academiadeciberseguranca.ptDocumentação sobre IA em Portugal, organizada por categorias temáticas e actualizada pela equipa do ecossistema Regimes Jurídicos. Acesso público nos termos do DL 83/2016.
AI Act, legislação nacional, directivas conexas, legislação sectorial.
Guidelines do AI Office, orientações da Comissão, recomendações nacionais, códigos de conduta.
ISO/IEC 42001, ISO/IEC 23894, normas harmonizadas, frameworks de governance.
Relatórios do AI Office, estudos da OCDE, Conselho da Europa, ENIA.
Modelos de AIDF, templates de documentação técnica, checklists de conformidade.
Autoridades competentes, ENIA, regulação sectorial, programas públicos.
O AI Act intersecta-se com múltiplos vectores regulatórios dado o carácter transversal da inteligência artificial. A conformidade eficaz exige coordenação entre as obrigações de vários domínios normativos.
O tratamento de dados pessoais por sistemas de IA exige cumprimento cumulativo do RGPD e do AI Act.
Visitar vector →A segurança da informação é requisito transversal para sistemas de IA de alto risco.
Visitar vector →O AI Act exige níveis adequados de cibersegurança para sistemas de IA.
Visitar vector →Sistemas de IA utilizados em contexto laboral (recrutamento, avaliação, monitorização) são classificados como alto risco.
Visitar vector →Solicite uma avaliação dos seus sistemas de IA ou uma proposta de serviços de conformidade. A nossa equipa especializada acompanha a sua organização em todas as fases do processo.