Regulamento da UE sobre IA: texto encaminhado ao Parlamento Europeu
- Bruno Augusto Santos Oliveira
- 23 de jun. de 2023
- 3 min de leitura
Atualizado: 26 de jul. de 2023
ACESSE O TEXTO EM PORTUGUÊS DO NOVO REGULAMENTO DA INTELIGÊNCIA ARTIFICIAL:
Seção Atualidade - Parlamento Europeu

"Esta ilustração de inteligência artificial foi de fato gerada pela IA" - site do parlamento europeu
A utilização da inteligência artificial na UE será regulada pela lei da IA, a primeira lei abrangente do mundo sobre a IA. Sabe como esta lei te vai proteger.
No âmbito da sua estratégia digital, a União Europeia (UE) pretende regulamentar a inteligência artificial (IA) para garantir melhores condições para o desenvolvimento e a utilização desta tecnologia inovadora. A IA pode trazer muitos benefícios, como melhores cuidados de saúde, transportes mais seguros e mais limpos, produções mais eficientse e energia mais barata e mais sustentável. Em abril de 2021, a Comissão Europeia propôs o primeiro quadro regulamentar da UE para a IA. Propõe que os sistemas de IA, que podem ser utilizados em diferentes setores, sejam analisados e classificados de acordo com o risco que representam para os utilizadores. Os diferentes níveis de risco implicarão mais ou menos regulamentação. Uma vez aprovadas, estas serão as primeiras regras do mundo sobre a IA.
O que o Parlamento pretende com a legislação sobre IA
A prioridade do Parlamento é garantir que os sistemas de IA utilizados na UE sejam seguros, transparentes, rastreáveis, não discriminatórios e respeitadores do ambiente. Os sistemas de IA devem ser supervisionados por pessoas, em vez de serem automatizados, para evitar resultados prejudiciais.
O Parlamento quer também estabelecer uma definição uniforme e neutra em termos tecnológicos para a IA, de modo a ser aplicada em futuros sistemas de IA.
Conhece melhor o trabalho do Parlamento no que diz respeito à Inteligência Artificial e a sua visão para o futuro nesta área.
Lei da inteligência artificial: regras diferentes consoante os níveis de risco
As novas regras estabelecem obrigações para os fornecedores e utilizadores em função do nível de risco da IA. Embora muitos sistemas de IA representem um risco mínimo, é necessário avaliá-los.
Risco inaceitável
Os sistemas de IA de risco inaceitável são sistemas considerados uma ameaça para as pessoas e serão proibidos. Estes sistemas incluem:
manipulação cognitivo-comportamental de pessoas ou grupos vulneráveis específicos: por exemplo, brinquedos ativados por voz que incentivam comportamentos perigosos nas crianças
pontuação social: classificação de pessoas com base no comportamento, estatuto socioeconómico, caraterísticas pessoais
sistemas de identificação biométrica em tempo real e à distância, como o reconhecimento facial
Podem ser permitidas algumas exceções. Por exemplo, os sistemas de pós-identificação biométrica à distância, em que a identificação ocorre após um atraso significativo, só serão permitidos para a repressão de crimes graves e após aprovação do tribunal.
Risco elevado
Os sistemas de IA que afetam negativamente a segurança ou os direitos fundamentais serão considerados de elevado risco e serão divididos em duas categorias.
1. Sistemas de IA que são utilizados em produtos abrangidos pela legislação da UE em matéria de segurança dos produtos. Isto inclui brinquedos, aviação, automóveis, dispositivos médicos e elevadores.
2. Sistemas de IA que se enquadram em oito áreas específicas que terão de ser registados numa base de dados da UE:
identificação biométrica e categorização de pessoas singulares
gestão e funcionamento de infraestruturas essenciais
educação e formação profissional
emprego, gestão dos trabalhadores e acesso ao trabalho por conta própria
acesso e usufruto de serviços privados essenciais e de serviços e benefícios públicos
aplicação da lei
gestão da migração, do asilo e do controlo das fronteiras
assistência na interpretação jurídica e na aplicação da lei.
Todos os sistemas de IA de risco elevado serão avaliados tanto antes de serem colocados no mercado como durante todo o seu ciclo de vida.
Inteligência artificial generativa
A IA generativa, tal como o ChatGPT, teria de cumprir os requisitos de transparência:
divulgar que o conteúdo foi gerado pela IA
conceber o modelo para evitar que este gere conteúdos ilegais
publicar resumos dos dados protegidos por direitos de autor utilizados para a formação
Risco limitado
Os sistemas de inteligência artificial de risco limitado devem cumprir requisitos mínimos de transparência que permitam aos utilizadores tomar decisões informadas. Depois de interagir com as aplicações, o utilizador pode decidir se quer continuar a utilizá-las. Os utilizadores devem ser alertados para o facto de estarem a interagir com a IA. Isto diz respeito também aos sistemas de IA que geram ou manipulam conteúdos de imagem, áudio ou vídeo (por exemplo, os deepfakes).
Próximas etapas
A 14 de junho de 2023, os eurodeputados adotaram a sua posição de negociação sobre a legislação em matéria de inteligência artificial. Em breve terão início as conversações com os países da UE no Conselho sobre a forma final da lei. O objetivo é chegar a um acordo até ao final deste ano.
Veja essa matéria em: https://shorturl.at/buDGS




Comentários