EnglishKoreanPortugueseSpanish
EnglishKoreanPortugueseSpanish

Avanço das decisões algorítmicas no mundo do trabalho

decisões algorítmicas tem avanço no mundo

Enquanto as leis são lentas, a tecnologia se desenvolve rapidamente. É fato que o Direito não consegue acompanhar as mudanças sociais no ritmo necessário e esse vácuo vem se acentuando quando se trata de tecnologias emergentes. Nesse cenário, um dos desafios recorrentes recai sobre os sistemas algorítmicos e alimentam as discussões se sua aplicação está em conformidade com a lei e se são socialmente justos no mundo do trabalho. O algoritmo pode ser definido como “ um conjunto de etapas usadas para completar uma tarefa específica. São como blocos de construção da programação e permitem que coisas como computadores, smartphones e sites funcionem e tomem decisões”.¹

A despeito da existência ou não do regramento legal, não há dúvidas de que o recrutamento de trabalhadores está cada dia mais automatizado e com demandas por precisão e eficiência, uma vez que o turn over dentro das empresas resulta em prejuízo, pois a cada nova contratação, a companhia precisar treinar os novos colaboradores e fazer a integração na empresa. E isso tem custos. As abordagens éticas envolvendo os algoritmos nos levam à discussão sobre como vencer os preconceitos, avaliando as habilidades de um candidato da forma mais neutra possível, sem saber seu gênero, etnia, se tem filhos, local onde reside ou onde estudou e para quem já tinham trabalhado nos empregos anteriores.

Há casos famosos no mercado, como o de uma big tech que descartou um algoritmo de recrutamento que selecionava menos candidatas mulheres do que homens. A ferramenta de contratação procedeu a pontuações de um a cinco estrelas para os candidatos a uma vaga na empresa, sendo que o algoritmo rebaixava pontos onde encontrava a palavra feminino e faculdades voltada à formação de mulheres. O programa discriminatório acabou encerrado, mas a experiência vem sendo aproveitada em novos projetos, já que o algoritmo conseguia reconhecer 50 mil termos encontrados em currículos e atribuir classificações.

O chamado gerenciamento por algoritmo continua crescendo, independente de erros ou acertos, e utiliza infinitas fontes no seu processo. Tem acesso aos amigos dos candidatos nas redes sociais, registros de saúde e financeiro, uso do GPS, opiniões políticas, como gasta seu tempo livre e etecetera. Há em curso projetos que analisam expressão facial e discursos nas entrevistas de vídeo de candidatos, na tentativa de ir além de currículos.

A questão do uso corporativo de dados pessoais ainda não está resolvida. O problema se amplia quando as empresas utilizam organizações terceiras para coletar e tratar dados de funcionários , sendo que a segurança da informação é fundamental, principalmente em um país onde a vigência de Lei Geral de Proteção de Dados (LGPD ) é recente e não há na sociedade brasileira uma cultura consolidada sobre privacidade e proteção dos dados pessoais, regrados por consentimentos prévios dos titulares desses dados.

A discriminação racial por algoritmo ganhou projeção na mídia internacional fora do mundo do trabalho, por meio do algoritmo Compas (Correction Offender Management Profiling for Alternative Sanctions) empregado nos Estado Unidos para prever se réus podem ser reincidentes. Nesse sentido, auxilia os magistrados a decidirem sobre a liberdade condicional de um suspeito, com pagamento de fiança. A ferramenta usa um algoritmo secreto, ao qual nem os juízes tiveram acesso, e que empregou critério étnico contra afrodescendentes para proceder à análise de risco. Os réus negros tinham duas vezes mais probabilidade de serem erroneamente apontados como de alto risco, portanto, passíveis de reincidência.³

Diante do incremento do volume de dados, os algoritmos tornam-se essenciais para tomar decisões preditivas e fazer julgamentos sobre aptidões humanas de um candidato a um posto de trabalho dentro das empresas . Mais: ainda temos de levar em consideração que os sistemas algorítmicos são protegidos por direitos de propriedade intelectual e segredo comercial. Recentemente, o Tribunal Superior do Trabalho (TST) suspendeu recentemente a perícia no algoritmo de uma plataforma de mobilidade que atua no Brasil com base nesses argumentos.

Mas os algoritmos tomam decisões imparciais ? Podem discriminar grupos minoritários por fatores de gênero, etnia-raça, orientação sexual, deficiência, origens, dentre outros? Quais são seus riscos? Há muitas perguntas que implicam em questões de regulação ética e jurídica, que ainda não possuem respostas.² Um algoritmo pode, sim, discriminar, dependendo de sua programação, do tipo de dados usados para treinar a máquina e que possibilitam que ela faça esse tipo de correlação discriminatória. Ela pode em um recrutamento e seleção para uma empresa excluir determinados CEPs da cidade, deixando à margem do processo candidatos que residam em comunidades, com perfis mais carentes e, possivelmente, com parcela maior de pretos e pardos.

Embora esteja constatado que há parcialidade e discriminação humana, intencional ou não, na seleção e contratação das empresas; a discriminação algorítmica vem se consolidando como um dos grandes temores no mundo do trabalho, porque ao invés de tornarem neutras, possam dar continuidade a essas discrepâncias. A Constituição Federal de 1988, no artigo 5º, Caput, assegura que “Todos são iguais perante a lei, sem distinção de qualquer natureza, garantindo-se aos brasileiros e residentes no País a inviolabilidade do direito à vida, à liberdade, à igualdade, à segurança e à propriedade, nos termos seguintes;”. No mesmo sentido, a LGPD (Lei 13.709/2018), no artigo 6º, IX , estabelece a não discriminação, considerando a” impossibilidade de realização do tratamento para fins discriminatórios ilícitos ou abusivos”. Mas, esse arcabouço legal será suficiente para delimitar os julgamentos demandados pelos algoritmos? Ou m ais uma vez nos defrontamos com a necessidade de termos leis e processos que garantam mais transparência.

Um caso trabalhista envolvendo discriminação algorítmica chegou aos tribunais italianos, que seguem a Convenção de Proteção de Dados 108+ do Conselho da Europa e a GDPR (Regulamento Geral sobre Proteção de Dados). O processo considerou discriminatório o algoritmo de um APP de entrega de alimentos, que classificava o turno dos trabalhadores segundo sua “confiabilidade” . Essa confiança era medida pela assiduidade nos turnos. Ou seja, não levava em consideração as justificativas do entregador para não cumprir determinado turno, como por exemplo estar doente. E , dessa forma, quem faltasse, independente do motivo, era classificado como “menos confiável”.

No que tange às normas brasileiras, estão previstas no artigo 473 da CLT as hipóteses onde o empregado pode se ausentar do trabalho sem prejuízo no salário, como por exemplo, quando tiver que comparecer em juízo e no caso de doação voluntária de sangue, dentre outras, e há também as faltas justificadas, como por exemplo, no caso de apresentação de atestado. Além destas normas podem constar outros ajustes referentes a este tema nos acordos e convenções coletivas do sindicato da categoria e da empresa. Acaso a empresa identifique algum empregado que esteja faltando além dos limites da razoabilidade, um acompanhamento próximo a esse empregado deve ser realizado a fim de identificar se a empresa pode auxiliá-lo de alguma forma, até mesmo considerando que as faltas que não forem justificadas podem ter impacto direto ao período das férias e ao DSR, bem como em todo o impacto que estas ausências podem ocasionar para a empresa.

O que temos acompanhado nos últimos anos é uma mudança na postura do Legislativo e do Executivo que agora agem ativamente, ao invés de simplesmente coibirem, aprovando e promulgando leis trabalhistas efetivas que se adequem a novas situações e visem incluir grupos sociais minoritários, como por exemplo aqueles voltados as pessoas com deficiência, conforme preceitua o artigo 93 da lei 8.213/91. Além disto, temos algumas outras leis esparsas. O Brasil ratificou a Convenção nº 111 da OIT, que proíbe qualquer tipo de discriminação no ambiente de trabalho. Temos também a lei 9029/95 que trata das admissões discriminatórias e o Decreto 3.298/99 que regulamenta a lei 7.853/89 relativas à Política Nacional de Integração dos PcD’s, além da Súmula 443 do TST que proíbe a dispensa discriminatória em razão de doenças graves que causem estigma ou preconceito, no ambiente de trabalho. Agora, todo esse arcabouço legal terá de caber dentro da resposta ofertada pelos algoritmos na seleção e recrutamento, avaliação e dispensa de pessoas, que configuram uma nova realidade.

Tereza Ribeiro é advogada, sócia da Lee, Brock, Camargo Advogados (LBCA) e especialista em Direito Trabalhista.
Santamaria N. Silveira é jornalista, head de conteúdo da LBCA e presidente do Subcomitê de Afrodescendentes do escritório.

¹ Disponível em : https://edu.gcfglobal.org/en/computer- science/algorithms/1/&prev=search&pto=aue

² No Brasil, há em tramitação no Senado Federal Projetos de Lei que visam regular o uso da Inteligência Artificial (PL 5051/2019) e instituir a Política Nacional de Inteligência Artificial (PP 5691/2019).

³Disponível em: https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm

Confira  as últimas atualizações jurídicas sobre o impacto do Coronavírus no Brasil e no mundo/a></a

Post Relacionados