O projeto foi pensado para trazer algumas orientações e obrigações para o setor de desenvolvimento, produção, venda e aplicação de inteligência artificial no Brasil. Ele também dá direitos para as pessoas e traz as áreas de desenvolvimento que exigem atenção
André Fernandes, diretor do Instituto de Pesquisa em Direito e Tecnologia do Recife e integrante da Coalizão Direitos na Rede
Numa primeira versão, haveria uma instituição que cuidaria da aplicação da legislação. Na última versão do relatório, a ANPD (Autoridade Nacional de Proteção de Dados) fica na coordenação. O SIA (Sistema Nacional de Regulação de Inteligência Artificial) classificará os usos de IA de alto risco (inclusive, podendo mudar as classificações), além de interagir com especialistas, um comitê técnico e autoridades setoriais.
Outra alteração do projeto inicial é a proteção de direitos autorais de criadores de conteúdo. O texto prevê que quem tiver alguma obra usada em treino de sistema de inteligência artificial, que seja comercializado, poderá proibir o uso de conteúdo e, eventualmente, dará direito à remuneração ao autor.
Transparência: “estou falando com uma IA?”
Inspirado no AI Act, legislação europeia sobre o tema, o projeto brasileiro é baseado no risco potencial das inteligências artificiais com a lógica de direitos das pessoas.
O conceito de transparência se estende para várias áreas. Ainda que um chatbot de atendimento seja um uso sem grandes riscos, com a lei as pessoas deverão ter alguma ideia sobre se as decisões que foram tomadas sobre elas foram baseadas em inteligência artificial, e quais critérios foram utilizados.
Deixe um comentário