Parlamento Europeu aprova "EU AI Act", primeiro marco regulatório de IA do mundo
Nova lei pode inspirar países como o Brasil a adotar regulações próprias para a tecnologia
Repórter
Publicado em 25 de junho de 2023 às 11h40.
Última atualização em 26 de junho de 2023 às 13h55.
O Parlamento Europeu deu um passo significativo para amenizar os riscos da inteligência artificial (IA) à sociedade com a aprovação, na última quarta-feira, 21, do "EU AI Act".
A medida poderá incitar outros países a estabelecer suas próprias normativas, como é o caso do Brasil, onde discussões acerca de um projeto semelhante foram retomadas este ano no Congresso.
A proposta, que vem sendo discutida desde 2020, regulamenta o funcionamento de ferramentas de automação, aprendizado de máquina e modelos amplos de linguagem.
Isso abrange desde algoritmos de redes sociais e serviços de streaming até infraestrutura urbana, como redes elétricas, passando por carros autônomos e ferramentas como o ChatGPT.
O ChatGPT, chatbot popular da OpenAI, potencializou o desconforto dos países membros da União Europeia em relação às novas tecnologias.
Em abril passado, a Itália decidiu banir o ChatGPT do país, alegando que o robô coletou dados de usuários sem consentimento e expôs menores a materiais impróprios.
Três semanas depois, um acordo restabeleceu o serviço. Dias depois, a autoridade de dados da Espanha declarou que estava investigando possíveis infrações cometidas pelo ChatGPT.
A regulamentação da IA pode entrar em vigor no próximo ano. Antes disso, o texto deve passar pela Comissão Europeia e pelo Conselho Europeu, e ser aprovado por todos os 27 países-membros do bloco.
Primeiro passo
Embora ainda seja um rascunho inicial, o documento aprovado na última quarta-feira fornece uma perspectiva sobre o futuro da IA no continente.
O ponto principal do EU AI Act consiste em categorizar diferentes modelos de inteligência artificial através de uma "abordagem baseada em risco".
Nesse modelo, cada sistema de IA é classificado em uma das categorias definidas pelas autoridades: baixo risco à sociedade (como jogos), risco limitado (como chatbots), alto risco (como veículos autônomos) e inaceitável (como sistemas biométricos de vigilância).
Com base nessa classificação, as empresas têm uma série de obrigações de privacidade e transparência a cumprir, dependendo da categoria em que seus serviços e produtos foram enquadrados.
Em maio, os eurodeputados adicionaram um adendo dedicado às IAs de propósito geral, como o ChatGPT.
Pelo projeto, essas ferramentas deverão exibir um aviso indicando que o conteúdo é gerado por uma máquina - uma medida que os políticos europeus esperam que previna a disseminação de desinformação - e detalhar em relatórios os materiais protegidos por direitos autorais que foram utilizados para treinar esses sistemas.
Svenja Hahn, eurodeputada alemã, considera o projeto uma defesa dos valores da União Europeia. Contudo, apesar do progresso, a permissão concedida pelo EU AI Act para que ferramentas de IA possam ser utilizadas nas fronteiras dos países é vista como um retrocesso por organizações de direitos humanos.
Sarah Chander, consultora da organização European Digital Rights (EDRi), critica o fato de que a União Europeia está criando uma regulação de IA de duas categorias, com os migrantes recebendo menos proteções que o resto da sociedade.