EnglishKoreanPortugueseSpanish
EnglishKoreanPortugueseSpanish

IA avança na Justiça e em outras frentes

IA avança na Justiça e em outras frentes

De forma inédita, o  STF começou a utilizar uma ferramenta de Inteligência Artificial, a RAFA 2030 (Redes Artificiais Focadas Na Agenda 2030) para promover a classificação dos processos judiciais com base nos 17 Objetivos de Desenvolvimento Sustentável (ODS) da Agenda 2030 da ONU, no sentido de poder priorizar e vencer os desafios de um mundo mais sustentável e equânime.

Esse é um exemplo bem próximo das infinitas possibilidade que a  IA pode oferecer, contribuindo com o ecossistema judicial, nesse caso voltado a propiciar mais eficiência no cruzamento de ações e os 17 ODS’s:

erradicação da pobreza, fome zero e agricultura sustentável, saúde e bem-estar, educação de qualidade, igualdade de gênero, água potável e saneamento, energia acessível e limpa, trabalho decente e crescimento econômico, indústria, inovação e infraestrutura, redução das desigualdade, cidade e comunidade sustentáveis, consumo e produção responsáveis, ação contra mudança global do clima, vida na água, vida terrestre, paz, justiça e instituições eficazes, parcerias e meios de implementação.

A inteligência artificial (IA) constitui a soma da utilização da grande massa de informações (big data) e o conjunto de instruções para realizar uma tarefa, produzindo um resultado final, tudo em uma equação matemática, o algoritmo.

A versão singular da máquina ainda está longe de existir, é a máquina dos padrões de escolha absolutamente autônomos, os padrões assinalados por Yuval Noah Harari “Sapiens – A Brief History of Humankind”, adaptados para reconhecer a mesma capacidade que o ser humano tem para processar suas intuições, o que levaria à catástrofe:

a revolução tecnológica pode em breve excluir bilhões de humanos do mercado de trabalho e criar uma nova e enorme classe sem utilidade, levando a convulsões sociais e políticas com as quais nenhuma ideologia existente está preparada para lidar.”

Contudo, o emprego da IA parece não ter limites. Na Índia, vem sendo utilizada uma ferramenta de IA, chamada Supace (Supreme Court Portal for Assistance in Court’s Efficiency) que tem várias funções, inclusive auxiliar na tradução  de julgamentos para idiomas regionais, o que aumenta o acesso à justiça, tornando o trabalho do tribunal mais rápido e eficiente.

Contudo, paralelamente ao incremento do uso de IA, crescem as preocupações com a proteção de dados e privacidade, além da garantia dos direitos humanos.

Na Estônia, para eliminar o acervo de processos, já  está em operação o juiz de IA  para julgar disputas de pequenas causas, abaixo de 7 mil euros. Igualmente no Canadá, a IA tem sido empregada para resolver disputas de baixo valor. Há muita polêmica em torno deste uso, mas torna-se igualmente  importante testar a IA para ver se os resultados refletem justiça e transparência no andamento processual, além de reduzir custos e tempo dos processos.

Em outros setores, a IA está igualmente ganhando diferentes usos. A empresa Ghostrobotics, por exemplo, desenvolveu o cão robô para uso militar, semelhante a um cachorro, tem quatro “patas”, pode andar em terrenos sinuosos, subir e descer, monitorar incansavelmente regiões de risco, desativar bombas e atuar em substituição ao soldado em diversas tarefas, evitando colocar em risco o militar.

Os drones possibilitam também o monitoramento de áreas de difícil acesso e evitam riscos, são utilizados em dezenas de tarefas inclusive de transporte, mas erros aconteceram, em 2021 um show de luzes na China com drones teve problemas técnicos e dezenas caíram nos espectadores; os Estados Unidos admitiram um ataque com drones em local errado matando 10 civis no Afeganistão.

Passando para o uso de algoritmos de geolocalização, a Predpol promete revolucionar a segurança das regiões contratadas pela empresa, com base nas ocorrências policiais o algoritmo prevê a incidência do próximo crime: o que; onde e quando acontecerá, simplesmente pela estatística avançada na análise preditiva.

O uso das ferramentas de biometria é controverso e precisa ser analisado à luz da Lei Geral de Proteção de Dados, mas foi utilizado em Moscou para pagamento de metrô, o Face Pay, lançado em 2021.

São Paulo prevê a instalação de câmeras de reconhecimento facial para auxiliar na redução da criminalidade. Um procurado por homicídio foi reconhecido por uma câmera de reconhecimento facial no Carnaval de Salvador, em 2019. Isso é somente o começo porque a máquina pode aprender com a experiência à medida que recebe mais dados, o que também ajuda a reduzir os vieses.

A linguagem corporal padrão de alguém que comete um delito pode ser identificada através de uma nova tecnologia japonesa de câmeras que detectam os movimentos e o algoritmo avalia se haverá um delito, é a análise preditiva em ação.

Em 2018, uma reportagem do The Economist, em parceria com O Estado de S. Paulo, publicou uma matéria dizendo que computadores têm sido utilizados para ajudar em decisões judiciais nos Estados Unidos, porém, o que dizer do caso do cidadão afro-americano Robert Julian-Borchak Williams, detido, preso e acusado injustamente por um sistema de algoritmo de inteligência artificial.

No Jornal El País, a manchete, “os robôs sexuais já estão aqui. Deveria haver leis que os regulem?”, são os sexbots, como ficam a ética e a privacidade diante de um robô com formas infantis?

Em contrapartida aos exemplos citados , todos aptos a uma sabatina de análises técnicas envolvendo legislação, ética e privacidade, a máquina traz benefícios em diversos setores, inclusive os citados além da educação; medicina; diagnóstico; gestão; segurança entre outros, o relógio mais recente da Apple salvou a vida de um americano ao detectar uma embolia pulmonar.

Diante do avanço exponencial da tecnologia e suas aplicações para que se possa evitar os erros e utilizar de maneira correta, o desafio é a regulamentação. Diversas iniciativas vêm sendo aplicadas para prevenir e evitar que os mecanismos de decisão adotem padrões incorretos, até mesmo discriminatórios.

Os programadores do Reino Unido têm o código de ética para o desenvolvimento prevendo em poucas palavras que se evite a predição incorreta incluindo um humano sempre que possível; o monitoramento das ferramentas deve permitir a compreensão do que está sendo decidido e, por fim, deve permitir a transparência nas decisões.

A Microsoft também publicou os princípios da IA contendo justiça; confiabilidade e segurança; privacidade; inclusão; transparência e responsabilidade. A Comunidade Europeia publicou as diretrizes para uma IA de confiança “Ethics Guidelines for Thustworthu AI”, basicamente prevendo a intervenção e supervisão humana; robustez e segurança e a privacidade e governança de dados.

O Senado Americano tem como base o manual de ética em IA para aplicação a todos os projetos de IA não aceitando modelos sem explicação e que sejam compreendidos quais dados são utilizados. Aqui, no Brasil, um passo foi dado, além da Lei Geral de Proteção de Dados, com  o Marco Legal da IA, estabelecendo a criação do relatório de impacto de IA e seus agentes, projeto inspirado na Recomendação sobre Inteligência Artificial da Organização dos Estados para o Desenvolvimento Econômico (OCDE).

A  IA pode ser usada em benefício da sociedade, seguindo os padrões ESG (melhores práticas ambientais, sociais e de governança) e em busca do atingimento das metas da Agenda 2030 da ONU,  através da governança focada nas pessoas e na sustentabilidade em busca da prosperidade para todo o mundo.

Fabio Rivelli é advogado, sócio do escritório Lee, Brock, Camargo Advogados (LBCA). Master in Business Administration pelo Insper. Mestrando em Direito – núcleo de Direitos Humanos pela PUC/SP. Especialista em Gestão de Contencioso de Volume pela GVLaw, ranqueado pela Leaders League – 2021 em Contencioso Trabalhista de Volume, na categoria “Altamente Recomendado”.

Post Relacionados