EnglishKoreanPortugueseSpanish
EnglishKoreanPortugueseSpanish

A decisão do STF sobre o artigo 19 do Marco Civil da Internet

A decisão do STF sobre o artigo 19 do Marco Civil da Internet

Segundo o advogado Solano de Camargo, a decisão do STF possui falhas estruturais gritantes, além de usar termos muito abertos e que serão difíceis de serem interpretados pelos usuários, redes e judiciário.

Conversamos com o advogado Solano de Camargo sobre a decisão do STF a respeito do artigo 19 do Marco Civil da Internet. Solano é professor de Direito Internacional na USP, especialista em Direito Digital, IA e Proteção de Dados, sócio-fundador da LBCA e presidente da Comissão de LGPD e IA da OAB-SP.

Qual a sua avaliação sobre a decisão do STF que julgou parcialmente inconstitucional o artigo 19 do Marco Civil da Internet?

Basicamente, o Brasil deixou de ter uma regra única, que vigorou com a redação do artigo 19 do Marco Civil, e passou a ter múltiplos regimes de responsabilização que dependem do tipo de conteúdo analisado. O resultado é que agora nós temos um sistema confuso, instável, e pior, de difícil aplicação.

A regra era muito simples até 26 de junho de 2025. Se alguém fizesse uma publicação que pudesse ser considerada ofensiva ou ilegal, a plataforma só poderia ser responsabilizada caso não cumprisse uma ordem judicial específica que tivesse solicitado a sua remoção. Quando eu falo específica, eu me refiro ao endereço da URL. Com isso, havia uma proteção jurídica dos intermediários, como blogs, jornais e veículos de imprensa. Com a decisão do STF, isso muda radicalmente, pois o tribunal criou quatro modelos diferentes de responsabilização sem ter uma lei aprovada pelo Congresso, ou seja, uma verdadeira legislatura judicial.

O primeiro modelo trata dos crimes contra a honra, como calúnia, injúria e difamação. Para esses casos, a regra do artigo 19 continua valendo, ou seja, é preciso ter uma ordem judicial específica para que o conteúdo possa ser removido, e se uma rede não fizer isso, ela vai ser responsabilizada.

O segundo modelo trata de crimes graves como racismo, terrorismo, violência contra crianças, tentativa de golpe etc. Nesses casos, a plataforma pode ser responsabilizada, mesmo sem ordem judicial, caso o tribunal entenda que houve uma falha sistêmica, que eu imagino que seja uma omissão em prevenir ou remover conteúdo com agilidade. Aqui, já nascem diversos problemas, pois embora esses temas pareçam ser óbvios, na verdade existe muita interpretação.

Por exemplo, o que é um crime de tentativa de golpe? Primeira premissa: como eu costumo dizer em sala de aula, todo sistema computadorizado, por definição, pode ser atacado por um hacker. Segunda premissa: todas as urnas eletrônicas do Brasil possuem componentes eletrônicos, logo, em teoria, do ponto de vista da tecnologia da informação, as urnas eletrônicas podem ser atacadas por um hacker. Se eu falar esse conjunto de premissas, eu estou cometendo um crime contra a democracia, contra o Estado de Direito? Faço essa colocação, pois existem condenações, inclusive cassação de deputado, por afirmações incisivas relacionadas a esse mesmo raciocínio que estou fazendo. Eu, Solano, confio plenamente nas urnas eletrônicas, mas, em teoria, não posso falar nada contra elas?

LEIA MAIS: Desafios regulatórios para construtoras na habitação popular

O mesmo acontece em relação ao racismo. Nós temos uma visão muito clara de racismo que vemos na mídia, como ofensas que acontecem na rua ou em um supermercado, mas, por exemplo, às vezes pode haver algum tipo de conotação em uma música que pode ser considerada poesia por alguns e crime por outros, pois a interpretação é aberta. Na dúvida, você vai receber multas, penalidades e sanções pessoais.

Dessa forma, eu acredito que as redes e os veículos de comunicação vão remover esses conteúdos, preventivamente, para evitar sanções futuras, pois esse tema ficou aberto. Assim, na dúvida, remove. Quem vai perder com isso é a liberdade de expressão e, principalmente, o direito das pessoas consumirem conteúdo, que é um ponto que não está sendo muito comentado, e que faz com que haja um duplo risco.

O terceiro modelo são outros crimes ou outros ilícitos civis. Se a vítima notificar a plataforma e ela não remover o conteúdo, já pode haver a responsabilidade civil, mesmo que não tenha havido uma ordem judicial? Esse é um problema que aconteceu na Alemanha, pois o crime ou ilícito civil nunca acontece a priori, já que ele precisa do devido processo legal, uma condenação, alguma coisa acima de qualquer suspeita que considere que ali foi cometido um ato ilícito, um crime.

Por exemplo, o ex-presidente Collor terá direito a pedir a remoção de tudo o que foi produzido no Youtube, blogs e jornais a respeito do seu impeachment, como a história da Fiat Elba? Isso porque ele foi absolvido no Supremo, portanto, ele não cometeu, de acordo com a corte, nenhum crime. Assim, ele pode entender que isso configura um ato atentatório, apesar de eu entender que isso faz parte da história. Pode ser que no caso de Collor, isso fique mais difícil de acontecer, mas nós temos o Brasil inteiro.

O que vai acontecer com políticos locais ou pessoas conhecidas, como atores e atrizes, que possam ter cometido um ato ou outro que seja de interesse social e público? Vai haver uma saraivada gigantesca de notificações, toda vez que alguém não gostar de um comentário, pois uma pessoa só vai precisar dizer que aquilo é crime. Se houver alguma forma de se encaixar em algum tipo penal, as pessoas vão ter o direito de notificar. Com isso, as plataformas vão ter que se preparar para receber milhões de notificações por ano.

Um ponto importante é que o Brasil é um país belicoso e judicial. Ele possui a maior proporção de advogados por habitante do mundo e um volume de processos que se equipara à população brasileira. Por exemplo, se o país tem 200 milhões de habitantes e 100 milhões de processos em andamento, isso significa que todo mundo é réu ou autor, pois um processo tem duas partes, ou seja, estatisticamente, todo mundo tem um processo em andamento. Como é muito fácil para o brasileiro chegar no juizado especial cível sem advogado (até 20 salários mínimos) e propor uma ação, em teoria, existe uma possibilidade gigantesca de que haja um litígio de massa.

Por último, nós temos os marketplaces. Neste caso, a decisão fala que se aplica o Código de Defesa do Consumidor, mas não ficou claro o que isso significa. O marketplace, que hoje faz a intermediação, vai ser responsável pela qualidade do produto vendido? O mesmo vale para um atraso na entrega. Outro ponto: a decisão equiparou os chatbots, como o ChatGPT, às redes sociais ou fóruns, mas eles não são plataformas e não têm conteúdo de terceiros.

Essa é uma situação complicada, sem contar que a decisão impôs às plataformas um dever de autorregulação obrigatória, ou seja, elas têm que criar sistemas internos de moderação, canais de denúncia, relatórios de transparência, medidas preventivas, sendo que ninguém é obrigado a fazer nada senão em virtude da lei, pois existe o princípio da estrita legalidade. Assim, o STF, como se fosse dono da verdade, impôs uma série de circunstâncias que, no fundo, significam restrições.

Resumindo, o Brasil está saindo de um modelo previsível e baseado na moderação judicial, que todos os especialistas consideram um dos mais avançados do mundo, para um modelo que possui três características: a plataforma poderá ser punida sem culpa por causa da chamada presunção de responsabilidade; a suposta vítima, a pessoa que se sentiu ofendida, pode exigir a remoção imediata daquele conteúdo sem ação judicial, e a plataforma deve decidir se ela vai cumprir ou não a notificação que será recebida sob pena de omissão.

Os casos originais que levaram a esse julgamento eram simples e antigos: uma conta falsa no Facebook e uma comunidade ofensiva no Orkut. O STF foi chamado a decidir um reparo em duas situações localizadas geradas por dois conflitos antigos, mas decidiu legislar, criando um novo regime para toda a internet brasileira, sem que tivesse havido uma discussão com os representantes do povo. O resultado é que, agora, nós temos um modelo, e é importante que isso fique claro, onde, na dúvida, o conteúdo será removido, sendo que no modelo anterior, na dúvida, preserva-se a liberdade de expressão. Isso vai levar ao aumento de remoções preventivas, justamente pelo medo da responsabilidade civil, o que vai impactar o debate público e a crítica política.

Qual a sua avaliação sobre as obrigações que foram estipuladas pelo STF para as plataformas?

Na minha opinião, os desafios das plataformas são muito difíceis de serem vencidos. Em primeiro lugar, a decisão possui uma série de conceitos que são absolutamente amplos e mal definidos. O que seria falha sistêmica? Falta de diligência? Circulação massiva de conteúdo ilícito? Eu não sei dizer.

Por exemplo, como deve ser interpretado o vídeo do deputado federal Nicolas Ferreira onde ele falava que poderia haver imposto do Pix? Na minha avaliação jurídica, esse vídeo, que gerou milhões de compartilhamentos, não chegou a acusar o governo de que ele havia decidido taxar o Pix, mas sugeria que isso poderia acontecer através de uma comparação com o “imposto das blusinhas”, mas muita gente considerou que ele manipulou a opinião pública. A questão é como esse vídeo deve ser interpretado: circulação massiva de conteúdo ilícito ou liberdade de expressão com habilidade? Sem que haja parâmetros objetivos e quantitativos, é muito difícil traduzir esses conceitos em procedimentos internos claros e eficientes.

Outro ponto: as plataformas globais lidam, sem exagero, com trilhões de conteúdos que circulam diariamente. Cerca de 15 anos atrás, a Justiça Federal de São Paulo, a pedido do MPF-SP, determinou ao Orkut que fossem impressos todos os comentários de um grupo neonazista que estava na plataforma. Eu me lembro que se a quantidade estimada de folhas de papel, que o Google deveria entregar à justiça, fosse empilhada, isso seria mais alto que o próprio prédio da Justiça Federal.

VEJA TAMBÉM: Fracionamento abusivo nas ações consumeristas

Dessa forma, é praticamente impossível monitorar e identificar, de forma precisa e automática, todos os quadros que se enquadram nas novas hipóteses de responsabilidade criadas pelo STF. Eles falam em medidas preventivas, mas, utilizando o exemplo do vídeo da Daniella Cicarelli na Espanha (2006), se um frame for retirado e for posto um comentário, isso faz com que o vídeo já não seja o mesmo. É por isso que o Marco Civil da Internet previa a indicação da URL.

Além disso, nós temos o risco de overblocking, o que vai fazer com que, dentro de uma insegurança jurídica, as plataformas prefiram remover conteúdos preventivamente. Esse foi o caso recente do X por causa de oito perfis, mas veja como são as coisas. Segundo a Constituição americana, a remoção de perfil é considerada como censura prévia. Aliás, segundo a Constituição brasileira também, pois remoção de conteúdo é uma coisa, mas remoção de perfil é calar a boca da pessoa. Se essa pessoa for um jornalista ou um influencer, ele não trabalha mais. Foi a isso que o Elon Musk, e também o Mark Zuckerberg, se referiu. Dessa forma, a remoção de conteúdos para que se evite punições, mesmo quando esses conteúdos possam ser considerados, em outras jurisdições, como lícitos, vai resultar em censura privada e vai prejudicar a liberdade de expressão.

Mais dois pontos: como o judiciário brasileiro possui limitações tecnológicas e deficiências estruturais, como é que a comunicação, como notificações, ordens de remoção e esclarecimentos, vai se dar de forma eficiente e rápida com as plataformas? Será que o judiciário está preparado para o tsunami que vai chegar? Por fim, nós temos a exigência de representante legal no Brasil com plenos poderes. Quando pensamos em plataforma social, nós pensamos nas principais, mas existem centenas de plataformas. Se você perguntar a um adoslecente, ele vai te falar de plataformas que, possivelmente, você nunca ouviu falar. Como essas plataformas ficam no estrangeiro, elas vão ser proibidas? A Anatel vai ser acionada para que o acesso dos brasileiros a essas plataformas seja cortado? 

Sem uma lei detalhada como, por exemplo, o Digital Service Act europeu, as plataformas vão atuar em um cenário que é de absoluta incerteza, o que vai dificultar a padronização de processos internos e as respostas diante dessas situações cada vez mais complexas. Elas podem até reforçar esses canais de denúncia e de transparência, mas o que deve acontecer na prática é uma fuga maciça de usuários das plataformas que vão obedecer essa decisão para plataformas que sejam menos organizadas e que tenham menos governança interna. Esse é o grande problema: o fenômeno da bexiga que existe nos meios digitais, ou seja, se você aperta embaixo, ela aumenta em cima.

Por exemplo, quando houve a questão da liminar da Justiça de Sergipe que suspendeu o Whatsapp por dois dias do país (2016), houve uma migração em massa para o Telegram, pois as pessoas não vão deixar de se comunicar. Só que o Telegram não tem a mesma governança de conteúdo que a Meta, dona do Whastapp. Com isso, jovens e adolescentes podem ter contato com conteúdos muito mais prejudiciais do que aqueles que estão, por exemplo, na plataforma da Meta. É por isso que, no curto prazo, deve acontecer uma migração maciça para plataformas onde a comunicação seja menos tolida do que nas plataformas que possuem representação no Brasil.

Qual a diferença entre a discussão sobre a regulamentação das redes e o julgamento do artigo 19 do Marco Civil da Internet?

No fundo, basicamente é a mesma coisa. Como a discussão sobre a regulamentação das redes está no legislativo e polariza a sociedade, o Supremo  resolveu agir e se avocou na liderança de impor um sistema goela abaixo de toda a sociedade brasileira, já que o Congresso não finalizou essa discussão.

Dessa forma, o regime de regulação das redes sociais, que deveria ser feito no Congresso Nacional com a ampla participação da sociedade, foi imposto por um oráculo sem que houvesse a ampla participação da sociedade. Houve apenas algumas audiências públicas selecionadas a dedo pelos ministros. Com isso, o Brasil tem uma regulação a fórceps decidida pelo judiciário.

Como um artigo de uma lei, que foi promulgada no dia 23/04/2014, pode ser julgado parcialmente inconstitucional 11 anos depois?

Na verdade, existe aqui uma situação até compreensível, pois ao longo do tempo, o alcance e a utilização das redes sociais foram ficando mais sofisticados, sem contar que surgiram novos problemas que não tinham como ser medidos, devidamente, em 2014. Por exemplo, como o sistema do Marco Civil da Internet prevê que a regulação judicial é a regra, o conteúdo é válido até que um juiz diga que não é. A exceção é o artigo 21, que diz que não se precisa da participação judicial quando houver a veiculação de vídeos e fotos envolvendo atos sexuais ou nudismo (nudes), ou seja, se você é o interessado, você pode notificar a plataforma, que deve fazer a remoção imediatamente.

Com o tempo, nós aprendemos que existem outras situações que poderiam se equiparar a essa situação automática, como, por exemplo, questões envolvendo apologia ao suicídio, incentivo a auto-mutilação e crimes de ódio, pois essas são situações muito claras e que não envolvem tanta discussão sobre a interpretação de conteúdo. Dessa forma, a evolução do artigo 21, 11 anos depois, levaria a essa situação.

O problema do julgamento é que o Supremo previu situações absolutamente abertas e que não são consensuais. Por exemplo, uma coisa é fazer apologia ao suicídio, sendo que outra é falar em atos antidemocráticos. Veja que o ministro Luiz Fux entendeu que a cabeleireira, que escreveu com batom na estátua da justiça no 8 de janeiro, cometeu uma depredação de patrimônio público, portanto, a sua pena seria leve, mas o ministro Alexandre de Moraes e a maioria do Supremo entenderam que aquilo era um ato antidemocrático de abolição do Estado de Direito. Perceba que mesmo dentro do Supremo existem interpretações opostas sobre o mesmo fato.

Hoje no Brasil, essa questão de atos antidemocráticos pode levar ao cerceamento da liberdade de expressão política, que envolve, inclusive, a manifestação de sentimentos pessoais que não necessariamente significam uma organização, um grupo que visa derrubar o governo. Essa é uma situação que pode ser usada politicamente.

A chance para atualizarmos esse dispositivo por conta do aprendizado da sociedade, depois de 11 anos, acabou sendo atropelado pela imposição de diversos parâmetros muito abertos e que tornaram, infelizmente, o sistema brasileiro, que era um dos mais adiantados do mundo, equiparável ao padrão que se usa em países como Rússia, Coréia do Norte e Bielorússia, onde, justamente, a censura vem na frente da liberdade de expressão.

No julgamento, o STF utilizou como base o Tema 533, que tratava de um problema ocorrido no Orkut, plataforma que foi desativada em set/2014. Isso faz sentido?

Em princípio faz, já que o regime processual, adotado pelo Código de Processo Civil de 2015, prevê a possibilidade do Supremo utilizar julgamentos individuais para criar decisões que sejam vinculantes para todos os juízes do país. Assim, o STF se aproveita de casos em andamento para criar decisões de repercussão geral. Como o caminho para que um processo chegue ao Supremo é longo, pois ele passa por muitas instâncias, faz sentido que casos antigos só estejam agora no Supremo. 

A questão é que essas matérias não deveriam ser julgadas pelo Supremo, pois essas são decisões que criam responsabilidades e regimes, e estabelecem procedimentos. Segundo a nossa Constituição, isso depende de lei, ou seja, de uma atuação firme do Congresso.

Dessa forma, dois casos simplesinhos, sendo um referente a uma conta falsa no Facebook e o outro referente a uma comunidade no Orkut que teria xingado uma professora, acabaram, em conjunto, representando o motivo para que o STF “canetasse” uma norma que vai ter uma grande influência no regime de liberdade de expressão do país. 

Em um cenário extremo, algumas plataformas podem suspender seus serviços no Brasil?

Eu não creio que isso deva acontecer por conta do tamanho do mercado brasileiro, principalmente porque as redes sociais funcionam como ecossistemas econômicos em que negócios são fechados, imagens são geridas, e publicidades e informações são veiculadas. Aliás, como o brasileiro é tido como um dos usuários que mais passa tempo nas redes sociais, eu não acredito que isso deva acontecer.

O que deve acontecer, muito provavelmente, é a transferência em massa de usuários brasileiros para outras redes sociais que não tenham, possivelmente, representação no Brasil, ainda não sejam conhecidas ou que sejam localizadas em jurisdições que não tenham o mesmo grau de exigência e de governança que as redes sociais atualmente utilizadas no país, da mesma forma como aconteceu no caso que mencionei do Whatsapp, e que fez com que o Telegram se tornasse tão influente no Brasil.

Cabe destacar que o Telegram nasceu na Rússia, foi transferido para Dubai, mas a sua sede jurídica fica, se não me engano, em Antígua e Barbuda, nas Antilhas, o que faz com que o cumprimento de decisões judiciais e interlocuções sejam mais dificultosas, diferente do que ocorre com as redes que já estão estabelecidas no Brasil.

Sendo assim, os usuários brasileiros devem buscar novas redes sociais, justamente porque um usuário quer ler manifestações e se manifestar. Quando essas duas atividades são proibidas, a rede perde importância.

Considerando a conversa que tivemos, você gostaria de acrescentar algum ponto à sua entrevista?

A decisão do STF possui falhas estruturais gritantes, além de usar termos muito abertos e que serão difíceis de serem interpretados pelos usuários, redes e judiciário, de tal maneira que esse julgamento vai precisar ser complementado, senão totalmente substituído por uma lei urgente do Congresso Nacional.

Na medida em que o tempo for mostrando as grandes falhas sistêmicas que foram criadas, essa discussão vai voltar à tona em uma intensidade muito grande.

Post Relacionados