A base dele é que as IAs devem ser definidas pelo risco: dependendo da gravidade do uso, há mais ou menos obrigações. Se for de alto risco, é necessário ter testes de segurança e identificar riscos e medidas de mitigação.
Um exemplo de IA de alto risco é um sistema que concede aposentadoria, por exemplo. Nesse caso, as pessoas inclusive têm o direito de saber o motivo em caso de recusa do benefício.
Se for algo de risco excessivo, não pode haver nem desenvolvimento de IA.
Exemplo: uso de IA para criar um sistema à la “Minority Report”, que tenta determinar o cometimento de crimes a partir de traços de personalidade ou comportamentos passados. Ou uso de inteligência artificial para armas capazes de selecionar e atacar alvos sem intervenção humana.
A ANPD (Autoridade Nacional de Proteção de Dados) será responsável pela coordenação da aplicação da lei por meio do SIA (Sistema Nacional de Regulação e Governança de Inteligência Artificial). A entidade pode mudar a classificação de risco de IA, promoverá boas práticas e aplicações de sanções, caso sistemas afetem muitas pessoas, por exemplo.
Menos pressão sobre big techs
Numa das versões do texto, algoritmo de recomendação de plataformas (como redes sociais ou sistemas de busca) era considerado de alto risco.
Deixe um comentário