A discussão sobre a regulamentação da Inteligência Artificial (IA) no Brasil ainda não atingiu um consenso, com divergências marcantes entre as duas principais instâncias legislativas do país.
Na Câmara dos Deputados tramitou o PL 21/2020, aprovado pelos parlamentares, mas considerado muito genérico e principiológico. Por outro lado, o Senado Federal formou uma Comissão de Juristas encarregada de desenvolver um anteprojeto que contemplasse diversas propostas, incluindo os PLs 5.051/2019, 872/2021 e o já mencionado PL 21/2020, além de considerar as contribuições do setor público, empresarial, da sociedade civil e da academia. O resultado foi a elaboração do PL 2338/2023, apresentado pelo presidente do Senado, Rodrigo Pacheco (PSD-MG), com o objetivo de “proteger os direitos fundamentais e assegurar a implementação de sistemas seguros e confiáveis, beneficiando a pessoa humana, o regime democrático, e promovendo o desenvolvimento científico e tecnológico”.1
À medida que cresce o uso Inteligência Artificial, aumenta o interesse em regular os sistemas de IA de forma pontual. É o caso do projeto de lei 370/24, da deputada Jandira Feghali (PC do B- RJ), aprovado na Câmara e em análise no Senado, voltado a aumentar a pena de crimes de violência on-line cometidos contra mulheres por meio do uso de deepfakes (alteração digital de imagens e áudios falsos empregando IA, que parecem reais) e demais tecnologias. A pena de 6 meses a 2 anos de reclusão pode ser agravada para até 3 anos, se houver uso de tecnologias de IA. Este tipo de delito resulta em danos sociais, profissionais e emocionais para as vítimas.
Um caso que serviu de inspiração a este Projeto de Lei foi o episódio envolvendo alunas de um tradicional colégio do Rio de Janeiro, no final de 2023. Alguns colegas das adolescentes usaram tecnologia de IA para remover as roupas de mais de 20 alunas. As imagens falsas (nudes) foram disparadas em grupos de aplicativos de troca de mensagens. Este delito é análogo à simulação e participação de criança ou adolescente em material pornográfico realizado por adulteração de imagens (deekfakes), uma vez que as estudantes eram menores de idade. A deepfake de violência de gênero viola uma série de direitos da vítima:
Proteção de Dados Pessoais
As deepfakes podem envolver o uso não autorizado de dados pessoais (como a imagem de alguém) para criar conteúdo falso, violando leis de proteção de dados que visam a proteger a informação pessoal contra uso indevido.
VEJA MAIS: Aplicação da IA generativa e inovação legal
Privacidade
O uso de imagens para criar vídeos ou fotos falsas invade a privacidade da vítima, expondo-as a situações constrangedoras ou difamatórias sem seu consentimento.
Honra
A criação e disseminação de deepfakes podem difamar a vítima, prejudicando sua reputação e honra através da associação com comportamentos ou situações falsas.
Autoimagem
Deepfakes podem afetar negativamente a percepção que uma pessoa tem de si mesma, causando danos emocionais e psicológicos.
O resultado do conteúdo gerado pode ser falso, mas utiliza dados pessoais verdadeiros, violando também, no caso brasileiro, a Lei Geral de Proteção de Dados (LGPD). Há até quem fale que está em curso uma nova epidemia de violência contra as mulheres no ciberespaço. De acordo o Wired, somente nos primeiros nove meses de 2023, cerca de 240 mil vídeos deepfake foram carregados nos 35 principais sites de pornografia do mundo.
Já há legislações que criminalizam compartilhamento não consensual de deepfake on-line com fins maliciosos em alguns Estados norte-americanos, como Califórnia, Nova York, Texas e Virginia, e em países, como Austrália, África do Sul e Grã-Bretanha. Está em curso uma regulamentação similar no Parlamento Europeu, Canadá e Colômbia, uma vez que cresce entre os legisladores a preocupação em criminalizar deepfakes usadas como meio de abuso contra mulheres. De acordo com a Fundação MyImageMyChose, as deepfakes abusivas saíram do patamar de 144 mil em 2019 para 270 mil neste ano, crescendo 1.780% e vistas 4 bilhões de vezes.
A ampliação do uso das deepfakes se deve a uma rápida evolução da tecnologia de IA, que se tornou mais acessível, não sendo mais necessário amplos conhecimentos técnicos para utilizá-la. A produção de um vídeo deepfake, por exemplo, não leva mais do que 30 minutos e não tem custos. Qualquer selfie postada on-line pode ser alvo de deepfake criada a partir desta imagem, ampliando os abusos de gênero relacionados à tecnologia.
Mulheres em todo o mundo vem sendo vítimas desta violência digital, fomentada pelas deepfakes maliciosas, cujos algoritmos aprendem por meio da reprodução, sendo capazes de manipular atributos como olhos, boca, nariz, cor dos olhos, expressão, sincronização dos movimentos dos lábios, movimentos corporais, com um resultado que nem sempre é possível detectar que é falso. Se antes a divulgação de conteúdos íntimos sem consentimento eram uma ameaça, agora o risco se aprofunda porque as ferramentas de tecnologia para criar deepfakes geradas por IA se tornaram massivas, fáceis de usar e hiper-realistas.
As vítimas sofrem todo tipo de abuso facilitado pela tecnologia, podendo se constituir em formas de controlar, intimidar, isolar calar e envergonhar seus alvos, especialmente mulheres. Dados do Centro para Inovação em Governança Internacional apurou em 2020, em entrevistas com mais de 18 mil participantes em 18 países, 60% dos entrevistados tinham sofrido violência de gênero em plataforma digitais e redes sociais.
Uma série de estudos e pesquisas apontam que as deepfakes abusivas constituem um novo risco para as mulheres no universo digital, uma vez que se tornaram uma importante ferramenta para perpetrar ameaças e abusos de gênero. A deepkafe não é tecnologia recente. O termo se tornou público em 2017, quando uma série de fotografias de atrizes famosas foram recortadas e incorporadas a corpos de atrizes de filmes pornôs e postadas na Reddit (rede social norte-americana). No ano seguinte, viralizou um vídeo falso do ex-presidente norte-americano, Barack Obama, expressando um comportamento atípico e raivoso.
VEJA MAIS: Quatro polêmicas sobre o projeto que regula a inteligência artificial
Embora estejam mais presentes nas campanhas eleitorais, as deepfakes constituem a maioria de vídeos sexuais não consensuais, segundo pesquisa da Sensity AI.
Essa nova ferramenta tecnológica vem sendo usado por homens com padrão de dominação ou controle coercitivo sobre mulheres, o mesmo verificado em postagens de imagens íntimas (nudes) não consensuais na internet, que acabaram por ser alvo de regramento em grande parte do mundo. No Brasil, por exemplo, temos a Lei de Combate a Crimes Cibernéticos ou Lei Carolina Dieckmann (lei 12.737/12)2, que incluiu no Código Penal a tipificação de crimes virtuais e delitos informáticos, assegurando o direito à privacidade e à proteção de dados pessoais. A atriz Carolina Dieckmann deu nome à Lei porque teve seu computador invadido e suas fotos íntimas expostas na internet ao se negar a ser extorquida por cibercriminosos e ter denunciado o delito.
Este diploma legal é similar à Ley Olimpia do México3, que impõe pena de 6 anos de prisão para quem divulgar, sem consentimento, imagens íntimas. A Lei tem o nome da ativista Olimpia Coral Melo, que sofreu este tipo de violência quando era adolescente e pensou em suicídio diante da humilhação sofrida.
Pela legislação mexicana, as violências digitais são “atos de agressão, hostilidade, ameaças, insultos, vulnerabilidade de dados e informações privadas (…) através das tecnologias de informação e comunicação, plataformas de Internet, redes sociais, correio eletrônico, aplicativos ou qualquer outro espaço digital e atente contra a integridade, a dignidade, a intimidade, a liberdade, a vida privada ou direito humano das mulheres”.
As ferramentas de deepfake, originalmente desenvolvidas para aplicações legítimas como criações artísticas, entretenimento, educação, restauração histórica, e comunicação e marketing, enfrentam o desafio crítico do uso indevido que pode promover a violência de gênero. Para combater este abuso, vários obstáculos precisam ser superados, incluindo o rastreamento de autores, a remoção de conteúdo prejudicial, o desenvolvimento de ferramentas mais eficazes para detectar vídeos artificialmente criados, a natureza sem fronteiras da internet e a rápida evolução das tecnologias de inteligência artificial. Além da necessidade de avanços e aprimoramentos na legislação, a implementação de programas educativos dirigidos a estudantes de todos os níveis escolares se apresenta como um passo fundamental. Esses programas devem visar orientar e sensibilizar sobre o tema, bem como sobre o impacto negativo sofrido pelas vítimas, predominantemente mulheres, que têm seus direitos ameaçados.
__________
1 https://legis.senado.leg.br/sdleg-getter/documento?dm=9347622&ts=1709906186049&disposition=inline
2 https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2012/lei/l12737.htm
3 https://www.infobae.com/sociedad/2023/10/11/el-congreso-aprobo-la-ley-olimpia-contra-la-violencia-digital/
4 https://myimagemychoice.org/