EnglishKoreanPortugueseSpanish
EnglishKoreanPortugueseSpanish
EnglishKoreanPortugueseSpanish
EnglishKoreanPortugueseSpanish

Avança o debate sobre supervisão humana no ciclo de vida da IA

Avança o debate sobre supervisão humana no ciclo de vida da IA

Quando o escritor Isaac Asimov escreveu “Eu, robô”, em 1950, um livro de ficção científica, não tinha ideia de que suas “Três Leis da Robótica” serviriam como inspiração para a regulação das tecnologias de Inteligência Artificial. As leis de Asimov estipulam que: i) Um robô não pode ferir um ser humano ou permitir que um ser humano seja ferido, no mesmo sentido que os sistemas alimentados por IA devem priorizar a segurança; ii) Um robô deve obedecer às ordens emanadas por seres humanos, a não ser que entrem em conflito com normas legais. No nível da IA, é fundamental que os sistemas sejam transparentes e tenham salvaguardas  e iii)Um robô deve proteger a si próprio, desde que não entre em conflito legal. Nessa mesma sintonia, está a IA, uma vez que os sistemas tecnológicos devem ser sustentáveis.

O debate sobre a viabilidade da supervisão humana sobre os sistemas de IA vem crescendo dentro de um pano de fundo que reúne responsabilidade, ética e segurança das tecnologias, resultando em uma multiplicidade de riscos e oportunidades, que se aprofundam com as IA autônomas, cujo exemplo mais comum são as frotas de táxis autônomos transitando 24 horas, sete dias por semana, em parte dos Estados Unidos e China.

Os sistemas de IA atuam dentro de determinadas regras predeterminadas, decorrentes da programação de algoritmos, que podem embutir limitações éticas e conformidades legais. Contudo, cresce a preocupação da sociedade global com a supervisão humana sobre o ciclo de vida das tecnologias de IA. Dentro desta perspectiva, alimenta-se a possibilidade de incorporar a ética como um elemento basilar dos sistemas de IA, sedimentando a confiança entre humanos e robôs.

Quem pensa que os sistemas autônomos de IA estão restritos à frota de carros em grandes cidades, desconhece suas vastas implementações nas áreas de mineração, logística, agronegócio, energia, plataformas marítimas de petróleo, saúde, dentre outras. Há, também, robôs sociais, que interagem com humanos, caso de Nadine, empregado como acompanhante em asilo de Cingapura. Ela conversa e até joga bingo com os idosos, ou seja, promove cuidado continuado dos aposentados. Nadine foi desenvolvida com o objetivo de interagir de maneira natural e empática com os humanos e foi inspirada no trabalho da pesquisadora Nadia Magnenat Thalmann. Suas expressões foram cuidadosamente projetadas para simular gestos e comportamentos típicos dos seres humanos, o que a torna especialmente adequada para funções que exigem interação pessoal e emocional.

É nesse diapasão de expansão da IA, que vem crescendo e se sofisticando a supervisão humana na governança da IA, que também se torna mais complexa. Ela enfrenta barreiras à medida que cresce a autonomia parcial ou total das tecnologias de IA envolvendo ainda a opacidade ou comportamentos inesperados, que podem inviabilizar a supervisão humana ou pelo menos abrir-lhe novos desafios. Outro empecilho está ligado à escassez de profissionais com o conhecimento necessário dos sistemas que monitoram, limitando a efetividade desse tipo de governança. O supervisor deve ter competência, treinamento, autoridade e suporte.

No Brasil, o Judiciário brasileiro, que utiliza sistemas de IA, mediante algoritmos de aprendizado de máquina e LLMs – Modelos de Linguagem de Grande Escala, reforça a necessidade da supervisão humana dos sistemas de IA. A Justiça emprega tecnologias de IA para acelerar etapas processuais, organizar grandes volumes de dados e dar suporte técnico aos magistrados, sem jamais abrir para a função decisória final. Essa combinação de tecnologia e supervisão humana busca melhorar a eficiência e reduzir a morosidade dos tribunais, ao mesmo tempo em que respeita os princípios éticos e legislativos que regem a atividade jurisdicional.

LEIA TAMBÉM: O uso da Inteligência Artificial em saúde: uma revisão bibliográfica

Neste ano, o CNJ publicou a resolução CNJ- 615/251, que se seguiu à resolução anterior (CNJ 332/20). Ambas abordam a governança e a transparência no uso de IA no âmbito da Justiça Nacional. O dever da supervisão humana está contemplado nos arts. 12º, 15º e 18º, estabelecendo a criação do Comitê Nacional de Inteligência Artificial do Judiciário, cujas decisões podem ser submetidas ao plenário do CNJ. O Comitê elaborará um relatório contendo metodologias e critérios de avaliação, além de monitoramento e categorização de riscos dos sistemas de IA, generativa ou não. No art. 22, a mesma resolução define que “Qualquer modelo de inteligência artificial que venha a ser adotado pelos órgãos do Poder Judiciário deverá observar as regras de governança de dados aplicáveis aos seus próprios sistemas computacionais, as resoluções e as recomendações do CNJ, a LGPD, a lei de acesso à informação, a propriedade intelectual e o segredo de justiça”. Há uma grande preocupação que a grande massa de dados seja coletada e processada pela IA sem observância às leis de proteção de dados e a garantia dos direitos individuais.

Para o Judiciário brasileiro, os sistemas de IA devem ter sempre supervisão humana, mas não sabemos até onde isso é possível. Certamente, a IA alucina (apresenta informações plausíveis, mas falsas), comete erros, pode apresentar vieses discriminatórios e impactar a vida do jurisdicionado e da própria Justiça.  A supervisão humana pode ocorrer por vários meios: Human-in-the-loop quando se avalia e corrige respostas durante o treinamento; Auditoria e validação, com uso de benchmarks para assegurar decisões justas, Intervenções para filtrar saída; Interface de usuários explicáveis, Visualização de incertezas e Abordagem híbrida, que combina sistemas e especialistas em LLMs.2

Para responder a essa dúvida importante: até onde pode ir a supervisão humana nos sistemas de IA? um grupo multidisciplinar de cientistas de toda a Alemanha das áreas de Direito, Psicologia, Filosofia e Ciência da Computação) – Sterz, Baum, Biewer e Hermanns, Lauber- Rönsberg, Meinel e Langer- propôs soluções interessantes, cujos pontos principais estão reunidos em um artigo basilar “On the Quest for Effectiveness in Human Oversight: Interdisciplinary Perspectives”.3

VEJA MAIS: Do Blueprint à execução: Uma análise da estratégia americana para governança da Inteligência Artificial

No texto, debatem que o caminho para a supervisão humana deve ser essencialmente eficaz no combate aos aspectos negativos dos sistemas de IA, com base em três pontos e em um dispositivo legal: “design técnico do sistema, fatores individuais dos supervisores e circunstâncias ambientais em que operam”. A estes pontos se soma o art. 14 de lei de IA da União Europeia, consolidado em cinco tópicos:  os sistemas de IA devem incluir interface homem-máquina; a supervisão humana deve prevenir e minimizar os riscos; as medidas de supervisão devem ser proporcionais ao risco; a supervisão humana deve compreender, interpretar, decidir e intervir no sistema de IA no caso de risco e adotar requisitos de verificação.4

Ao buscar identificar o que é uma supervisão eficaz, os autores apontam facilitadores e inibidores. Avaliam que “Sem uma ideia concreta do que é eficácia no contexto da supervisão humana, nenhuma discussão produtiva sobre ela é possível”. Os autores consideram que a supervisão humana eficaz é aquela na qual o supervisor consegue mitigar riscos, atendendo quatro condições: capacidade de atuar no sistema, conhecimentos sobre o funcionamento de determinada tecnologia e riscos envolvidos, capacidade de decidir e ter intenções alinhadas com seu papel.

De acordo com os autores, um supervisor deve ter opção de intervir controlar, substituir ou desfazer ações do sistema de IA, além de ter a alternativa de assumir o controle manual e acesso a protocolos de emergência. Os autores sugerem também que os supervisores possam se adaptar aos processos do sistema ou sua interface para exibir informações adicionais; acesso ao uso de algoritmos transparentes para explicar as saídas do sistema e interpretabilidade dos processos de entradas e saídas, com visualizações que facilitem a compreensão. Ponderam, ainda, a necessidade do uso de ferramentas de supervisão, o que facilitaria o trabalho. No caso da seleção e recrutamento de um trabalhador, por exemplo, a ferramenta identificaria se a avaliação foi justa e livre de vieses de qualquer tipo.

Como defende Kevin Baum, cientista da computação, filósofo e membro do grupo de pesquisadores alemães, na incerteza normativa e regulatória, a supervisão humana dos sistemas da IA, envolvida em monitorar a qualidade das tecnologias de IA, deve ter como um ponto central ” o conceito de justificativas no cerne da pesquisa em ética da IA ??orientada para a aplicação, enfatizando sua importância para promover a responsabilização e o rigor ético”5 , uma vez que a supervisão humana democratiza a compreensão e responsabilização dos processos decisórios, tornando possível a revisão e a correção, quando necessárias.

Identificar falhas, vieses e comportamentos inadequados que o sistema de IA possa apresentar é fundamental, principalmente durante as fases iniciais e de teste, nas quais a capacidade de detectar e corrigir erros alimenta um ciclo de feedback que aprimora o funcionamento autônomo dos algoritmos. Com o tempo, espera-se que esses sistemas se tornem mais robustos e capazes de operar com maior autonomia, minimizando a necessidade de intervenção constante. O papel humano, nesse contexto, transforma-se em um mecanismo de supervisão, auditoria e ajuste, e não em uma etapa permanente de controle ou de um fim em si mesmo.

Essa visão também move o debate para o fato de que a interação entre humanos e máquinas possa ser sinérgica. A responsabilidade no desenvolvimento e implantação de sistemas de IA não deve  recair apenas sobre os ombros dos supervisores, mas ser compartilhada por cada stakeholder envolvido no processo  – desenvolvedores, usuários finais e órgãos reguladores. Ao reconhecer que a supervisão humana é um meio para melhorar o sistema, abre-se espaço para a inovação e a criação de protocolos que permitam sistemas mais inteligentes e seguros, dotados de aprendizado contínuo e adaptação ética. A supervisão humana, portanto, não deve ser vista como freio à inovação, mas como pilar de confiança e legitimidade da IA em ambientes regulados e socialmente sensíveis.

___________

1 Disponível aqui.

2 Disponível aqui.

3 Disponível aqui.

4 Disponível aqui.

5 Disponível aqui.

Post Relacionados