Ato de Inteligência Artificial da União Europeia Fruto de Longo Processo
O Ato de Inteligência Artificial da União Europeia — conhecido como EU AI Act — está em desenvolvimento há anos e espera-se que o assunto ganhe destaque nos próximos meses, à medida que os prazos de conformidade se aproximam. Enquanto isso, vamos explorar o conteúdo e os objetivos dessa regulamentação.
Quais são os objetivos da UE?
Para compreender o que a UE busca alcançar, é necessário voltar a abril de 2021, quando a Comissão Europeia publicou a proposta original. Os legisladores a enxergaram como uma lei para aumentar a capacidade da região de inovar em inteligência artificial, promovendo a confiança entre os cidadãos. O objetivo era garantir que as tecnologias de IA permanecessem “centradas no ser humano”, ao mesmo tempo em que fornecer regras claras para o setor empresarial.
A adoção crescente da automação nas indústrias e na sociedade pode, de fato, aumentar a produtividade em vários domínios. Contudo, isso também traz o risco de danos em larga escala se a produção for deficiente ou se a IA falhar em respeitar os direitos individuais.
Assim, a meta do AI Act é estimular a utilização da IA e expandir o ecossistema local de IA, criando condições que visam reduzir os riscos associados. Os legisladores acreditam que ter estas diretrizes em vigor aumentará a confiança dos cidadãos na tecnologia.
O que o AI Act exige?
A maioria das utilizações de IA não é regulamentada pelo AI Act, pois não se enquadra nas regras de risco. Vale ressaltar que o uso militar de IA está completamente fora do escopo, dado que a segurança nacional é uma competência dos Estados-membros.
Para os usos de IA que se enquadram na regulamentação, a abordagem de risco estabelece uma hierarquia, em que alguns casos de uso potencial, como técnicas manipulativas ou pontuações sociais inaceitáveis, são considerados de “risco inaceitável” e, portanto, são banidos.
- Exemplo: Proibição do uso de identificação biométrica em tempo real por agências de segurança em espaços públicos, com exceções para crimes específicos.
Na categoria de “alto risco”, que inclui aplicativos de IA usados em infraestrutura crítica, educação, saúde, entre outros, os desenvolvedores devem realizar avaliações de conformidade antes do lançamento no mercado e de forma contínua, especialmente em atualizações substanciais.
Além disso, sistemas de alto risco utilizados por entidades públicas devem ser registrados em um banco de dados público da UE.
A presença da GenAI nas discussões
A ascensão da GenAI remodelou não só a discussão sobre o AI Act, mas também motivou alterações no próprio regulamento, com o processo legislativo da UE coincidindo com o crescimento do interesse por ferramentas geradoras de IA, como o ChatGPT.
Os eurodeputados propuseram regras adicionais para os modelos que sustentam essas ferramentas, fazendo com que a indústria tecnológica intensificasse a pressão sobre o que a UE estava fazendo com a legislação.
Uma longa jornada rumo à conformidade
O AI Act entrou oficialmente em vigor em 1º de agosto de 2024, com prazos de conformidade variando até meados de 2027. Cada aspecto da regulamentação terá prazos diferentes, começando com 6 meses após a entrada em vigor.
O processo irá exigir que as empresas se ajustem às novas normas ao longo do tempo, permitindo que também os reguladores entendam melhor o que significa estar em conformidade.
Os detalhes das implicações do AI Act para as empresas ainda estão sendo definidos e as orientações serão desenvolvidas nos próximos meses.
No que diz respeito à supervisão, a autoridade centralizada da UE, através do AI Office, irá desempenhar um papel fundamental, com sanções para as violações podendo chegar a 3% do faturamento global dos fabricantes de modelos.
Portanto, o AI Act se apresenta como uma tentativa robusta da Europa de regular a IA, embora ainda haja muito trabalho pela frente.