fbpx

Riscos e conflitos entre tecnologia e princípios éticos

6 de fevereiro de 2020  |  Por Fernando Torre*  |   JOTA
Riscos e conflitos entre tecnologia e princípios éticos

No proclamado filme do diretor Steven Spielberg, “Minority Report”, uma futurista capital americana  (Washington DC) possuía uma polícia intitulada “PreCrime”, que através de três seres humanos com poderes especiais denominados “Precogs”, previam crimes que iriam acontecer e, dessa forma, atuava na sua prevenção, detendo os futuros infratores antes mesmo do cometimento das respectivas infrações.

Quando do lançamento do filme, em 2002, houve quem debatesse questões éticas: Se por um lado a criminalidade foi extinta, do outro lado prendiam-se pessoas com base em uma previsão de seres humanos superdotados à revelia de direitos fundamentais; até que ponto o determinismo deveria se sobrepor ao livre arbítrio das pessoas?

Enfim, seu enredo parecia um devaneio, mas quase vinte anos depois, tal hipótese pode deixar de ser o enredo de um filme de ficção científica e se tornar realidade.

A prova está na decisão recente do app de hospedagem Airbnb, que comunicou o uso de uma ferramenta de inteligência artificial para escanear a internet à procura de subsídios que indiquem se um hóspede é confiável ou não[1]. A ferramenta leva em tudo em consideração, desde registros criminais, até postagens nas redes sociais e, após esse levantamento, seus algoritmos avaliam a probabilidade da presença de traços de personalidade “não confiáveis”, incluindo narcisismo, maquiavelismo e até psicopatia.

É inegável que a sociedade em que vivemos se encontra no limiar de uma nova era, em que novas formas de inteligência artificial transformarão as nossas vidas de uma maneira substancial e profunda e, nesse contexto, a necessidade e a relevância de novos recursos tecnológicos serão cada vez mais prementes e indispensáveis, todavia, deve-se “ligar um alerta”, principalmente no que tange aos riscos relacionados às questões éticas e de preservação dos direitos fundamentais dos cidadãos.

É corriqueiro nos depararmos com questões que suscitam preocupações acerca do uso dos algoritmos, notoriamente à sua capacidade decisória aliada à opacidade de seus mecanismos e dados enviesados.

Por exemplo, em um recente estudo publicado pela revista Science[2], foi realizado um levantamento dos algoritmos utilizados pelo sistema de saúde americano utilizados para orientar funcionários de hospitais e clínicas sobre quais seriam os pacientes com mais urgência de atendimento.

Identificou-se que esses algoritmos continham viés racial embutido já que, em patamares similares de doença, era atribuída mais urgência às pessoas brancas do que as negras. Após uma profunda análise, chegou-se à conclusão de que o problema estava em uma regra introduzida no algoritmo que, para mensurar o nível de urgência, captava dados decorrentes de gastos financeiros com plano de saúde, sendo que nos Estados Unidos há um grande histórico de discriminação racial em que, historicamente, pessoas brancas tiveram muito mais acesso à planos de saúde do que as afrodescendentes.

Feita tal identificação, foi eliminado o viés racial contido no algoritmo, que o possibilitou alcançar a sua finalidade precípua, sem qualquer discriminação racial.

É possível concluir que a proposta do algoritmo utilizado pelo sistema de saúde americana era nobre, mas que seus meios não se mostraram adequados e não estavam alinhados com a finalidade que se esperava; carecia de Governança e Compliance.

Algoritmo pode ser explicado como “um conjunto de instruções passo a passo a serem conduzidas mecanicamente para atingir algum resultado desejado”[3]. De forma simplista, podemos afirmar que os algoritmos simulam a capacidade humana de tomar decisão e, assim como os seres humanos estão sujeitos a desvios éticos e ausência de imparcialidade nas suas decisões, os algoritmos também estão.

Para garantir que a inteligência artificial produza decisões éticas, imparciais e esteja em observância à lei e aos valores da própria corporação, torna-se indispensável a adoção de princípios básicos de governança e Compliance da inteligência artificial.

Ao se desenvolver a inteligência artificial, deve-se zelar pela criação de padrões e estruturas de análise, há de ser clarividente o propósito e o objetivo do algoritmo de garantir a rastreabilidade das decisões tomadas pela ferramenta. As questões éticas e os valores coorporativos da empresa devem estar devidamente contemplados no algoritmo para que as suas decisões possam respeitá-las e, além disso, regras de Compliance devem orientar esse algoritmo, para que suas decisões não confrontem o ordenamento jurídico, tampouco as políticas internas da empresa.

É muito importante, também, zelar pela higidez do banco de dados que servirá de subsídio para o aprendizado da máquina, já que na hipótese de o banco de dados estar enviesado, o algoritmo poderá ser contaminado com esse viés.

Uma ferramenta de inteligência artificial como a utilizada pela Airbnb para identificar hóspedes não confiáveis, com o objetivo de proteger os seus clientes, inegavelmente, tem um fim em si nobre, mas que deve ser utilizada com razoabilidade, já que seu resultado pode trazer consequências bastante negativas para a empresa, como o exemplo do caso de discriminação dos algoritmos do sistema de saúde americano.

Além de um evidente prejuízo à imagem da empresa, em um país massivamente judicializado como é o Brasil, qualquer desconformidade da Inteligência Artificial pode dar início a uma enxurrada de processos judiciais e, por essa razão, é importante que as empresas que fizerem uso dessa tecnologia se previnam.

O antídoto para as empresas mitigarem os riscos de resultados negativos produzidos pela Inteligência Artificial é a adoção de Governança e Compliance, algo que, sem sombra de dúvidas, o filme “Minority Report” nos mostrou que faltou para a polícia“Precrime”.

———————————————————————————————————————

[1] https://olhardigital.com.br/noticia/airbnb-diz-que-pode-identificar-hospedes-psicopatas-com-sua-inteligencia-artificial/94963

[2] Ciência 25 out 2019: vol. 366, Edição 6464, pp. 447-453; DOI: 10.1126 / science.aax2342

[3] CHABERT, J.-L. (Ed.). A History of Algorithms: From the Pebble to the Microchip. Nova Iorque, Estados Unidos da América: Springer-Verlag Berlin Heidelberg, 1999. P1.

Fernando De Paula Torre – advogado, sócio da Lee, Brock, Camargo Advogados (LBCA) e especialista em Compliance.