fbpx

Comissão de juristas começa a elaborar marco legal para inteligência artificial

30 de março de 2022  |  Por Bárbara Pombo  |   Valor Econômico
Comissão de juristas começa a elaborar marco legal para inteligência artificial

O Brasil poderá passar a ter um marco legal para o uso e desenvolvimento da inteligência artificial (IA). Um grupo de 18 juristas começa a trabalhar, a partir de amanhã, em um projeto de regulação, a pedido do presidente do Senado, Rodrigo Pacheco (PSD-MG). Terá 120 dias para propor uma minuta de texto.

O desafio será desenhar um normativo que dê conta do paradoxo da inteligência artificial. A tecnologia, segundo especialistas, tem potencial de salvar vidas e de ajudar em soluções para as mudanças climáticas, mas também traz riscos à liberdade e à privacidade das pessoas. A ideia, de acordo com integrantes da comissão, é encontrar um equilíbrio para criar balizas que protejam direitos fundamentais, mas não freiem inovações.

A regulação poderá estabelecer as bases para o desenvolvimento de tecnologias e aplicações que utilizem inteligência artificial de forma a proporcionar um ambiente fértil para o desenvolvimento e inovação ao mesmo tempo em que são preservadas as liberdades fundamentais, por meio destas medidas tomadas para a contenção deriscos, proporcionando uma IA sustentável e legítima”, diz o ministro Ricardo Villas Bôas Cueva, do Superior Tribunal de Justiça (STJ), que preside a comissão.

O nome remete a algo do futuro, mas a inteligência artificial já está presente no dia a dia. A tecnologia é usada em diversos ramos – para pesquisa na internet, definir um diagnóstico ou tratamento de saúde, rotas de trânsito e para seleção de currículos. Também é aplicada para análise de comportamentos do consumidor, em controles de estoques de empresas e no atendimento ao público, por meio dos chatbots.

O início das discussões no Congresso ocorre em meio ao aumento nos investimentos das empresas em inteligência artificial, muito impulsionados pela pandemia. Levantamento da Universidade Stanford, nos Estados Unidos,
apontou que, no ano passado, foram alocados US$ 93,5 bilhões em desenvolvimento de IA no mundo – mais do que o dobro do registrado em 2020.

A IBM divulgou, no ano passado, uma pesquisa que mostra o Brasil à frente de outros países da América Latina no uso da IA. De acordo com o estudo, 40% dos profissionais de tecnologia da informação (TI) entrevistados disseram ter implantado a inteligência artificial nas empresas onde trabalham – o índice na América Latina é de 21%.

No mesmo levantamento – intitulado de Global AI Adoption Index 2021 -, 94% dos profissionais de TI disseram ser importante para os negócios conseguir explicar como a máquina chegou a determinada decisão.

De acordo com o ministro Villas Bôas Cueva, do STJ, transparência e accountability (controle e responsabilização) serão temas debatidos pelos juristas. Assim como, diz ele, os direitos dos indivíduos e benefícios e impactos da inteligência artificial.

Um dos mais acalorados pontos de debate é sobre a responsabilidade por erros – um acidente com carro autônomo ou uma decisão automatizada que impede o acesso à saúde, por exemplo. Para especialistas ouvidos pelo Valor, o melhor seria seguir o modelo de responsabilidade subjetiva, em que a punição recai apenas se demonstrado o dolo ou a culpa em provocar o dano.

A adoção da responsabilidade objetiva pressupõe que o erro é risco da atividade. Pode impactar negativamente o desenvolvimento e a comercialização dessas ferramentas de IA”, diz o advogado Fabrício da Mota Alves. Ele integra a comissão de juristas e o Conselho Nacional de Proteção de Dados Pessoais e da Privacidade (CNPD), braço consultivo da Autoridade Nacional de Proteção de Dados (ANPD).

Também integrante da comissão, Juliano Souza de Albuquerque Maranhão, pesquisador associado do Centro de Inteligência Artificial da USP, afirma que a futura legislação deve prever padrões mínimos de governança, com relatórios de impacto, registro do funcionamento do sistema e cuidados na seleção dos dados.

“A norma deve ser combinada com uma autorregulação setorial, um código de boas práticas que poderia ser reconhecido por uma autoridade nacional de IA”, diz o advogado, sócio do Opice Blum, Bruno e Vainzof Advogados Associados.

Para a professora da Universidade de Brasília (UnB) Ana Frazão, que também compõe a comissão, o ideal é criar um modelo que converse com o de outros países. “Esse é um assunto de relevância mundial, que precisa ter um marco legal que não impossibilite o Brasil na inserção no cenário global”, afirma.

Na União Europeia, há um projeto de marco legal em discussão. De acordo com Igor Baden Powell, do escritório ASBZ, pelo texto, o peso regulatório varia de acordo com o risco da tecnologia – baixo, moderado ou alto. O chatbot, por exemplo, teria risco baixo. “Por outro lado, pela proposta, o reconhecimento facial ficaria banido.”

O uso do reconhecimento facial é polêmico também no Brasil. Já gerou litígios pela aplicação da tecnologia em transporte público e lojas, sem consentimento das pessoas. Há decisões recentes da Justiça que mandam suspender a captação de imagens pelo Metrô de São Paulo e ViaQuatro, que opera a Linha 4-Amarela do Metrô paulistano (ações no 1010667-97.2022.8.26.0053 e no 1090663-42.2018.8.26.0100).

As ações foram movidas pelo Instituto Brasileiro de Defesa do Consumidor (Idec), que integra um movimento internacional de banimento das câmaras de reconhecimento facial. A avaliação da entidade é que há pouca transparência sobre como funcionam e sobre o compartilhamento dos dados com terceiros. “Os benefícios não superam os danos individuais e coletivos que violam o direito de ir e vir, de privacidade”, afirma Luã Cruz, pesquisador do programa de direitos digitais do Idec.

Em nota, a ViaQuatro diz que aguarda julgamento de recurso pelo Tribunal de Justiça de São Paulo e que o sistema, objeto da ação, não permitia o reconhecimento facial. O Metrô, também por nota, informa que prestará todos os
esclarecimentos à Justiça. E acrescenta que o sistema de monitoramento obedece aos requisitos da Lei Geral de Proteção de Dados (LGPD).

Para o advogado Ricardo Freitas, do LBCA, ainda é difícil prever todo o potencial da inteligência artificial. Ainda assim, diz, é importante ter um normativo. “Ao mesmo tempo que a lei pode ter o risco de engessar inovações, a ausência de norma pode impedir ou atrasar investimentos. Hoje há insegurança. Por que uma empresa é processada por uso da IA e outra não?