Sistemas de IA devem receber conhecimento legal para não cometerem erros

Debate no IASP sobre como regular decisões assistidas por IA reuniu profissionais do Direito e de Ciência de Dados

Que tipo de confiança o indivíduo que usa Inteligência Artificial tem sobre o sistema? Que tipo de relação podemos ter entre o modelo de IA e a parte interessada? Podemos garantir que vamos ter acesso à ferramenta quando precisamos dela?

Esses foram alguns dos questionamentos trazidos por Umang Bhatt, professor de Data Science e Computer Science da New York University e membro do Alan Turing Institute, em debate sediado pelo IASP na quinta-feira (14/12). O encontro Regulamentação das Decisões Assistidas pela Inteligência Artificial, híbrido e em inglês, foi mediado pelo presidente da Comissão de Inteligência Artificial do IASP, Juliano Maranhão.

“Quando os algoritmos devem renunciar?”, também questionou Bhatt. A renúncia algorítmica é o desligamento deliberado e informado da assistência de IA em determinados cenários. Para Bhatt, do ponto de vista de um cientista de computação, a renúncia algorítmica traz benefícios como a eficiência econômica, o ganho reputacional e a conformidade legal.

O professor pontuou que a renúncia algorítmica permite um novo mecanismo para regulação dentro das organizações; orquestra a colaboração homem-máquina para melhorar resultados e processos; e justifica uma interpretação inteligente de regulamentações como o “processamento automatizado” do LGPD, uma vez que a IA agora pode ser invocada seletivamente.

Juliano Maranhão afirmou que “o ponto chave é a transparência, porque é a partir de suas instruções, da informação que os agentes têm sobre o funcionamento dos sistemas e sobre o momento para a renúncia que você encontra a chave para a atribuição de responsabilidade. A transparência depende de quem é o objeto dessa informação”. Sendo assim, o presidente da comissão pontuou quais seriam os elementos-chave para toda decisão sobre renúncia:

  • Para que o sistema é desenhado?
  • Qual é o interlocutor do sistema e que tipo de informação ele deve ter?
  • Qual a gravidade do risco envolvido?

Ser humano continua crucial

Maria Carolina Nery, doutoranda e mestre em Direito Civil pela Pontifícia Universidade Católica de São Paulo, mencionou  no debate o Athos, sistema de inteligência artificial que seleciona e agrupa processos semelhantes entre si e os envia para a presidência do Superior Tribunal de Justiça para que eles possam ser objeto de Temas Repetitivos.

No entanto, na prática, há ainda dúvidas sobre seu funcionamento e sobre meios para regular o sistema. Umang afirmou que, apesar de ser um sistema inovador e potencialmente favorável para a redução do volume de processos, não tem certeza se esse é o melhor uso para a IA. Da mesma forma, Juliano pontuou que a similaridade dos casos é identificada sem levar em consideração conhecimentos legais, o que evidencia que o ser humano continua sendo crucial nas decisões judiciais.

Renata Wassermann, professora associada do Departamento de Ciência da Computação do Instituto de Matemática e Estatística da Universidade de São Paulo, constatou, por fim, que “é preciso colocar conhecimento legal dentro do sistema para que ele não cometa erros recorrentes tentando identificar semelhanças nos processos”.