Segundo ele, a IA depende de sistemas opacos e classificados, que oferecem pouca informação sobre seu funcionamento e como chegam às suas conclusões. Não há “uma maneira fácil de avaliar o resultado desses sistemas” ou de determinar o que deu errado quando erros são cometidos, disse Asaro.
“Quem é o responsável?”
“Se algo der errado, quem é o responsável?”, perguntou ele citando o suposto bombardeio de uma escola na cidade iraniana de Minab, que matou 150 pessoas, muitas delas crianças, segundo as autoridades iranianas. Nem os Estados Unidos nem Israel admitiram ter realizado tal ataque. A AFP não conseguiu acessar o local para verificar de forma independente o número de mortos ou as circunstâncias que envolveram a tragédia.
A AFP determinou que o prédio ficava próximo a dois locais controlados pela Guarda Revolucionária Islâmica. Segundo Asaro, se houve um erro, encontrar a causa está longe de ser simples. “Eles não diferenciaram a escola da base militar como deveriam ter feito (…) mas quem são ‘eles’?”, questionou. “Humanos ou uma máquina?”
Se a IA foi usada, a questão fundamental, segundo ele, é “qual a época dos dados” utilizados e se foi um “erro de banco de dados”. O alvo também pode ter sido identificado corretamente, mas pode simplesmente ter faltado precisão no disparo, acrescentou.
Uma hipótese mais preocupante, observou Asaro, seria que “o sistema concluiu que a escola representava uma ameaça”.












Deixe um comentário