Skip to main content

Webinar sob demanda em breve...

Webinar sob demanda em breve...

Blog

Lei de IA da UE: o que continua valendo e o que os líderes empresariais precisam saber

21 de dezembro de 2025

EU flag flying in front of a government building

Principais tópicos

  • As propostas e discussões regulatórias mais recentes se concentram em como a Lei de IA da UE será implementada, e não se ela se aplica ou não.
  • Os ajustes nos cronogramas não alteram a estrutura baseada em riscos da lei nem as exigências quanto à responsabilização.
  • Aguardar uma orientação final deixa os prazos mais apertados e aumenta os riscos decorrentes de uma abordagem reativa à conformidade.
  • A preparação mais eficaz é implementar uma abordagem conectada e reprodutível para a governança da IA, que inclua também a privacidade, a gestão de riscos, a segurança cibernética e a supervisão de terceiros.

 

As últimas notícias sobre a Lei de IA da UE 

Quem acompanha os desdobramentos da Lei de Inteligência Artificial da União Europeia (EU AI Act) deve ter percebido um fluxo constante de atualizações, comentários e especulações nos últimos meses. Grande parte disso tem a ver com os planos da União Europeia para a implementação e a aplicação prática da lei.

Um dos principais tópicos dessas discussões é a iniciativa da Comissão Europeia para simplificar e alinhar a regulamentação da UE no campo digital, conhecida como pacote Digital Omnibus.

As propostas desse pacote de disposições legais têm como objetivo reduzir a complexidade da regulamentação, melhorar a consistência entre os países-membros da UE e estabelecer um melhor alinhamento entre a aplicação dos regulamentos, a disponibilidade de normas e orientações e a capacidade de supervisão. O resultado é uma ênfase crescente na governança operacional – como as organizações gerenciam os riscos associados à inteligência artificial, a responsabilidade e as evidências –, e não somente na conformidade teórica.

Na prática, isso significa que alguns aspectos da implementação da Lei de IA da UE poderão ser ajustados ou esclarecidos ao longo do tempo, com determinadas obrigações passando a ser mais vinculadas à prontidão do ecossistema de conformidade como um todo, em vez de datas fixas. 

Para as organizações, isso faz com que o desafio deixe de ser o acompanhamento de atualizações individuais e passe a ser a manutenção de um estado contínuo de prontidão, à medida em que as expectativas evoluem.

A OneTrust dá suporte a essa realidade operacional ao fornecer um sistema único para gerenciar a governança da IA em conjunto com os requisitos de privacidade, gestão de riscos e segurança cibernética. Essa plataforma permite que as organizações se adaptem à constante transformação dos regulamentos, sem precisar reconstruir fluxos de trabalho e evidências sempre que as expectativas de conformidade se alteram.

É importante distinguir entre o que as propostas indicam claramente e o que ainda está em desenvolvimento:

  • Áreas em que a direção é clara, como abordagens de implementação em fases e um alinhamento mais próximo a normas e orientações de apoio;
  • Áreas que continuam em desenvolvimento, incluindo orientações detalhadas, práticas de aplicação e fiscalização e exigências de supervisão no nível dos países-membros.

Essas propostas não reabrem a Lei de IA da UE. Elas refletem um esforço para tornar sua aplicação mais viável em um cenário tecnológico complexo e em rápida evolução.

 

O que está sendo proposto

Os elementos mais visíveis nas propostas recentes relativas à Lei de IA da UE estão relacionados aos cronogramas, à mecânica de implementação e às orientações, e não a mudanças no conteúdo da lei.

Ajustes nos cronogramas e na mecânica de implementação

As discussões sobre o pacote Digital Omnibus incluem propostas para ajustar como e quando determinadas obrigações da Lei de IA da UE se aplicarão, especialmente em casos de uso complexos ou de alto risco. Em alguns casos, a aplicação poderá ser vinculada à disponibilidade de normas harmonizadas, especificações técnicas ou orientações oficiais.

Para as empresas, isso traz flexibilidade, mas também incerteza.

Quando as obrigações estão vinculadas a marcos de prontidão em vez de datas fixas, as organizações que optam por esperar podem chegar ao momento em que os requisitos entram em vigor com menos tempo do que esperavam.

Esclarecimentos sobre IA de alto risco e supervisão

Sistemas de IA de alto risco continuam sendo um ponto de atenção. As discussões e atualizações mais recentes têm ressaltado a necessidade de uma orientação mais clara sobre documentação, gestão de riscos, supervisão humana e monitoramento pós-comercialização. Esses esclarecimentos ajudarão as organizações a aplicarem os requisitos de forma consistente, sem omissões.

Por que as alterações foram introduzidas

Essas mudanças refletem realidades práticas:

  • Os órgãos de normalização e autoridades supervisoras precisam de tempo para elaborar as orientações;
  • As organizações precisam de clareza para implementar os controles de forma correta;
  • Os órgãos reguladores desejam que a aplicação e a fiscalização sejam confiáveis e consistentes em toda a UE;

Em resumo, o foco das autoridades da UE está em como a conformidade ocorre, e não se ela ocorre ou não.

 

O que não mudou

Embora os cronogramas e as orientações possam mudar, vários elementos fundamentais da Lei de IA da UE permanecem inalterados. Muitas empresas interpretam essa situação de forma equivocada.

A abordagem baseada nos riscos permanece intacta

A Lei de IA da UE ainda constitui um marco regulatório orientado pelos riscos. As exigências da lei variam conforme a forma e o local de uso da inteligência artificial, especialmente quando os sistemas de IA têm impacto sobre os direitos, a segurança ou o acesso das pessoas a serviços essenciais.

Ainda se espera que as organizações compreendam:

  • Quais sistemas de IA são usados ou fornecidos por elas;
  • Como esses sistemas são implementados;
  • Qual é o nível de risco que eles apresentam.

A responsabilidade ainda recai sobre as organizações

Os provedores e implementadores de sistemas de IA continuam sendo responsáveis pela conformidade. A prestação de contas continua sendo uma obrigação das organizações, e não de órgãos reguladores ou fornecedores. Espera-se que as empresas demonstrem que a governança está implementada e em funcionamento.

A governança demonstrável continua sendo necessária

Políticas, por si só, não são suficientes. As organizações devem ser capazes de demonstrar:

  • Avaliações de risco e impacto;
  • Decisões e aprovações documentadas;
  • Monitoramento e supervisão contínuos; 
  • Caminhos claros de atribuição de responsabilidade e encaminhamento interno.

A aplicabilidade entre diferentes países e setores permanece ampla

A Lei de IA da UE continua aplicável a diferentes segmentos industriais e em diferentes países. Organizações multinacionais, subsidiárias situadas na União Europeia e empresas globais que atendem a usuários da UE fazem parte do escopo.

Neste cenário, uma plataforma como a OneTrust se torna fundamental. Ela cria um espaço em que as expectativas de governança se mantêm elevadas, mas os detalhes de implementação evoluem. Isso é o ideal, pois as organizações precisam de uma forma única e conectada de gerenciar evidências, fluxos de trabalho e supervisão, e não de ferramentas desconectadas e processos isolados.

Importância para as empresas

Não é só o aspecto jurídico que está em jogo, mas também o modelo operacional que afeta a forma como as empresas planejam, desenvolvem e ampliam a escala da inteligência artificial.

Os sistemas de IA raramente são restritos a uma única função. Eles são projetados, treinados, implementados e monitorados por várias equipes, frequentemente em diferentes regiões e sob diferentes estruturas de comunicação. Na prática, a IA tem impacto sobre várias partes da organização:

  • As equipes de produto e engenharia criam e implementam recursos baseados em IA;
  • As equipes de dados treinam, testam e mantêm modelos;
  • As equipes de segurança gerenciam o acesso e o monitoramento dos sistemas e a resposta a incidentes;
  • As equipes de privacidade e risco avaliam impacto, obrigações e conformidade;
  • As equipes de aquisição gerenciam fornecedores e ferramentas de IA de terceiros.

Para os líderes empresariais, isso representa um desafio que não pode ser resolvido somente por meio de atualizações jurídicas.

Quando a responsabilidade é fragmentada, pode se tornar também pouco clara. As decisões são tomadas em silos, as evidências são distribuídas por diferentes sistemas e não existe uma visão única dentro da organização quanto aos riscos da IA.

Essa fragmentação tende a aumentar esses riscos se os líderes aguardarem por uma "clareza final":

  • O trabalho de governança passa a ser reativo, em vez de planejado;
  • As equipes se mobilizam para se alinharem sob pressão do tempo;
  • A documentação e os registros de auditoria são reconstruídos após as ocorrências;
  • As equipes regionais sentem o impacto primeiro, muitas vezes sem dispor das ferramentas ou orientações necessárias para responder de forma consistente.

Notícias recentes sobre a Lei de IA da UE reforçam um fato: a incerteza regulatória não afeta a todos da mesma forma. Organizações com governança fragmentada têm dificuldade para acompanhar a regulamentação, enquanto aquelas que contam com uma supervisão conectada e responsabilização clara conseguem se adaptar à evolução dos requisitos.

Para os líderes empresariais, a verdadeira questão não é mais se a governança da IA será aplicada, e sim se a organização está estruturada para administrá-la em escala.

Isso significa, cada vez mais, superar a coordenação informal e as ferramentas desconectadas e adotar uma abordagem de governança que reúna IA, privacidade, risco, segurança e supervisão de terceiros em um único sistema. Esse é o modelo operacional que plataformas como a OneTrust foram desenvolvidas para apoiar. 

O que os líderes empresariais deveriam estar fazendo

Agir imediatamente não significa tentar concluir antecipadamente todas as exigências de conformidade com a Lei de IA da UE. Significa construir uma base adequada.

1. Governança da IA como parte de um processo mais amplo de gestão de riscos

A inteligência artificial não deve existir de forma isolada. A governança deve se conectar aos programas existentes de gestão de riscos, privacidade e segurança, de forma que os controles e evidências sejam compartilhados.

2. Supervisão da IA conectada à privacidade, aos dados e à segurança

Muitas das obrigações relacionadas à IA se baseiam nos mesmos controles associados ao Regulamento Geral de Proteção de Dados da União Europeia (GDPR, General Data Protection Regulation) e a marcos regulatórios de segurança. O alinhamento desses esforços contribui para reduzir duplicidades e lacunas.

3. Processos reprodutíveis e auditáveis

Uma falha comum na governança da IA é tratar cada avaliação como um evento isolado, o que desacelera as equipes e faz com que seja difícil demonstrar a conformidade de forma consistente e auditável.

  • Inventariamento e classificação de sistemas de IA.
  • Avaliações de risco e impacto.
  • Revisão e aprovação.
  • Monitoramento e reavaliação de forma periódica.

 

4. Preparação para auditorias e para a evolução da fiscalização

Os órgãos reguladores não perguntarão se a empresa tem uma política, e sim se ela é capaz de demonstrar como a governança funciona na prática.

Plataformas como a OneTrust ajudam as organizações a gerenciarem sistemas de IA, privacidade, riscos e governança de terceiros por meio de fluxos de trabalho conectados e evidências compartilhadas, em lugar de uma coordenação manual.

Conclusão estratégica

A Lei de IA da UE continuará a evoluir. As orientações amadurecerão, as normas serão finalizadas e as práticas de aplicação e fiscalização ficarão mais claras ao longo do tempo. Este período de mudanças não é uma exceção. É dessa forma que a regulamentação relacionada à IA na Europa provavelmente funcionará de agora em diante.

Nesse cenário, terão vantagem as organizações que conseguirem se adaptar sem precisar reconstruir seus programas de governança a cada mudança nas expectativas. Empresas que investem em uma governança unificada têm maior facilidade para absorver as atualizações com menos rupturas, pois a supervisão, as evidências e a responsabilidade já estão conectadas. Já as organizações que dependem de planilhas, soluções pontuais e coordenação informal enfrentam dificuldades com a convergência dos requisitos e o encurtamento dos prazos.

O verdadeiro diferencial competitivo não virá somente da interpretação jurídica.

O elemento central é a prontidão operacional – a capacidade de demonstrar, a qualquer momento, como os sistemas de IA são gerenciados na prática em meio a diferentes equipes, regiões e áreas de risco.

Plataformas como a OneTrust foram desenvolvidas para dar suporte a essa mudança, ajudando a operacionalizar a governança da IA como parte de um programa mais amplo e conectado de gestão de riscos e conformidade.

Saiba como uma abordagem unificada de governança pode ajudar sua organização a se preparar para a Lei de IA da UE e a se adaptar à evolução dos requisitos.Solicite uma demonstração hoje mesmo.  

 

Perguntas frequentes

As novidades recentes sobre a Lei de IA da UE se concentram nos detalhes referentes à implementação, incluindo processos divididos em fases, o desenvolvimento de material orientativo e propostas para simplificar a aplicação e a fiscalização, em meio a um alinhamento mais amplo das normas da UE no âmbito digital.

Algumas mecânicas de implementação poderão mudar, especialmente para sistemas complexos ou de alto risco, mas a Lei de IA da UE em si permanece em vigor, sem alterações em seus requisitos principais.

As propostas e discussões regulatórias mais recentes se concentram em detalhes de implementação, como cronogramas, orientações e mecanismos de aplicação e fiscalização, e não em mudanças na estrutura baseada em riscos ou nas expectativas de responsabilização.

Significa que as empresas precisam compreender seus sistemas de IA, avaliar os riscos, documentar as decisões e demonstrar uma governança contínua não só da IA, mas também da privacidade, da segurança cibernética e dos riscos.

Construir uma base conectada de governança de IA: inventariar os sistemas, definir as responsabilidades, estabelecer avaliações reprodutíveis e alinhar a supervisão da tecnologia aos programas existentes de gestão de riscos e privacidade.


Você também pode se interessar: