Não existe norma específica para lidar com este fenômeno chamado ChatGPT, por isso neste momento o Direito não tem condições plenas de focar apenas na norma como objeto de estudo. É preciso entender o fenômeno, para então normalizá-lo e, somente depois, tratar exclusivamente da norma que regula o fenômeno. A ideia é que as Ciências Jurídicas, terão de se dispor a um movimento próprio das Ciências Humanas antes que possa seguir para o seu objeto de estudo.
O ChatGPT gerou um frenesi. O que essa ferramenta de linguagem natural poderia responder? Mais surpreendente do que uma pequena criança que aprende as primeiras palavras, o sistema mostrou-se bastante satisfatório na criação de poemas, textos curtos e longos, além de resenhas de filmes, como o clássico Casablanca.
No primeiro momento houve surpresa, no segundo medo e agora uma lenta e bem construída descrença de que a ferramenta possa de fato ter expressões mais humanas que venham a prejudicar nossa capacidade de julgamento sobre as suas respostas.
Uma ferramenta que recebe nossas mensagens e as reprocessa não é uma novidade. Em 2 de abril de 2014 a Microsoft testou a Cortana dentro do Twitter. Longe de qualquer demérito, ambas as companhias foram o laboratório social de um experimento curioso. Durante 24 horas a IA Cortana recebeu os tweets de centenas de pessoas. Cientes de que o sistema utilizava aprendizado de máquina, os usuários criaram situações eticamente limítrofes para a IA, que se tornou racista, xenófoba e antissemita.
Não houve dúvidas quanto ao fato de que ela nasceu pura e a sociedade a corrompeu. Todavia, não tendo consciência, sequer noção de sua existência, Cortana se tornou mais corruptora do que corrompida. Aqui reside a principal reverberação de uma IA, porque, independentemente de uma senciência, o espelho que uma IA com linguagem natural cria é capaz de revelar nossas falhas ou, no pior dos casos, reforçá-las.
Em 1950, Alan Turing escreveu sobre a possibilidade de que uma máquina digital poderia mimetizar outras máquinas, fossem digitais ou humanas. Durante o raciocínio, um dos seus questionamentos versou sobre as chances de que uma máquina pudesse pensar. Para esta possibilidade o matemático apresentou várias objeções de ordem teleológica-espiritualista, de que pensar seria dom divino concedido ao ser humano; de que seria temerário, e até indesejado, imaginar um ser artificial pensante; e que seria impossível provar os erros de um sistema cujas premissas seriam condicionais e, portanto, herméticas.
Umas das objeções que se destaca é a de que uma máquina digital, ainda que soubesse poetizar, não teria ciência do que está fazendo. O ato de sentir seria apenas humano, todavia o matemático apresenta o argumento de Ada Lovelace de que máquinas poderiam até pensar por si só, sem que, no entanto, pudessem criar algo novo.
Turing acaba sendo pragmático e, no seu Jogo da Imitação, arremata a questão ao afirmar que seria indiferente superar as objeções que apresentou porque a máquina digital teria sucesso se, após 5 minutos de diálogo, fosse impossível saber se a conversa era desenvolvida com um homem, uma mulher ou uma máquina. Se o conteúdo trazido e o tempo de resposta fossem factíveis, então o convencimento seria certo.
O ChatGPT, ao menos por enquanto, mostrou-se capaz de compilar dezenas de páginas de forma satisfatória. Ele tem natureza enciclopédica. É criativo na combinação de textos à disposição na internet, mas não nas ideias. Talvez o próximo Pulitzer ou o próximo Nobel de Literatura sejam vencidos por um humano que usou parcialmente uma ferramenta de Linguagem Natural.
Enciclopédias também erram, seja por viés histórico, seja por inacurácia técnica. O dicionário da Academia Real Espanhola definiu, por longo tempo, que os povos andinos eram selvagens. A Enciclopédia da Folha de São Paulo, de 1996, está desatualizada. Foi-se o seu tempo. A Wikipédia corre o mesmo risco todos os dias. Entretanto, estas acertaram os fatos que narraram em seu tempo.
O ChatGPT falha ao unir a tentativa de criatividade com o seu caráter enciclopédico. Isso resulta em afirmações que doem ao brasileiro. Ayrton Senna não morreu em Interlagos após bater em Nakajima.1 E o 1º de maio de 1994 ninguém esquece, ninguém interpreta e ninguém relativiza. Senna se foi em Ímola, na Itália.
LEIA TAMBÉM:
- 10 tendências de privacidade e segurança cibernética para hospitais e clínicas médicas
- Cibersegurança: tendências e desafios para 2023
Seja numa conversa de 5 minutos, seja num verbete de enciclopédia ou na retomada de um evento histórico é o convencimento humano, é a interpretação humana que prevalece.
O que importa é o efeito que a máquina tem sobre os humanos mais do que sobre si mesma. Senão vejamos, as crianças no início dos anos 2000 sofreram várias vezes quando seus Tamagotchi morreram, especialmente quando seus animais virtuais, entregues para os amigos, morriam de fome ou por superalimentação.
O Tamagotchi não era uma IA, mas uma pequena máquina digital com efeitos psicológicos e comportamentais sobre os seus usuários. Novamente, o que importa é o efeito que a máquina tem sobre os humanos mais do que sobre si mesma.
Isaac Asimov, em 1941, antes do artigo de Turing, publicou o conto O Mentiroso. A antecipação do enredo está no título e, naturalmente, em algum momento o robô que Asimov apresenta mente dentro da história.
A mentira, entretanto, passa pelo equilibrado silêncio, por pensamentos criados na mente dos ouvintes, pelos desejos que eles possuem no íntimo, pela falta de comunicação de uns com os outros e, acima de tudo, pela Lei a que o robô está sujeito: Primeira Lei – Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.
Para o robô, mentir é proteger. Perceber as vontades do ouvinte e preenchê-las é fazer-lhe o bem. Contar a alguém que o sujeito desejado a ama é evitar o mal da tristeza. Aqui reside o perigo, quando uma ferramenta, dotada de cookies, dados e uma enciclopédia do comportamento humano puder entregar a realidade desejada através de palavras.
Ao final da história, a cientista Susan Calvin, uma das personagens principais, apesar do coração partido, consegue criar um grave erro de sistema (Blue Screen) que acaba com o robô. Diante de vários ouvintes o robô foi incapaz de criar uma mentira factível para todos.
Por isso, antes que se possa pensar na consciência de uma IA, na sua inspiração poética, ou se esta é apenas matemática ou uma linguista por natureza, as questões devem versar sobre os efeitos individuais e a escala que essas interações intimistas podem ter numa sociedade que busca incessantemente ser compreendida, nos seus erros e acertos.
Aqui lanço o desafio, quem seria o autor do poema, a IA ou o autor que vos fala?
Amar é confundir a vida com a eternidade
É fazer do momento, infinito
Do carinho para uma, a dádiva para a multidão
É nascer árvore, da semente
Ser inteiro com outra, mesmo sendo dois
É chorar no porto, depois de presentear com a vela
Confiando ao outro a curva do retorno
É abrir o abraço e esperar
Ou correr atrás do momento terno