O Supremo Tribunal Federal (STF) concluiu nesta quinta-feira (26), o julgamento que amplia as obrigações das big techs pelo conteúdo publicado por usuários na internet. Após doze sessões, os ministros estabeleceram os critérios para punir as plataformas por falhas na moderação de conteúdo e fizeram um apelo para o Congresso regulamentar as redes sociais.
“O tribunal esperou, e por alguns anos, que houvesse o procedimento legislativo do Congresso Nacional, mas nós não temos a faculdade de deixarmos de julgar alguma questão pela ausência indefinida de lei”, justificou o ministro Luís Roberto Barroso, presidente do STF, ao anunciar a decisão.
Ficou definido, como regra geral, que as empresas respondem por crimes ou atos ilícitos e por contas falsas se não removerem esses conteúdos após notificação privada (extrajudicial).
Com a decisão, a responsabilidade dessas empresas por publicações ilegais começa a partir do momento em que forem notificadas pelos próprios usuários e não a partir do momento em que descumprirem decisões judiciais de remoção dos conteúdos, como prevê o artigo 19 do Marco Civil da Internet.
Nos casos de crimes contra a honra (injúria, calúnia e difamação), permanece a sistemática atual, de obrigação de remoção apenas por ordem judicial. No entanto, as plataformas terão o dever de impedir a replicação das mesmas ofensas em outras publicações, independente de novas decisões judiciais.
Quando se tratar de anúncios ou impulsionamentos pagos, a responsabilidade das plataformas será presumida, ou seja, as empresas vão responder automaticamente pelas publicações que recebem para divulgar, independente de notificação ou ordem judicial. Nesses casos, as empresas só serão isentas se comprovarem que “atuaram diligentemente e em tempo razoável” para excluir conteúdos considerados irregulares.
Já os marketplaces – plataformas online que reúnem diferentes vendedores – respondem de acordo com o Código de Defesa do Consumidor.
Para serviços de mensageria privada, como WhatsApp e Telegram, provedores de e-mail e plataformas privadas de reunião, a exemplo do Zoom e do Google Meets, continua valendo a sistemática atual do artigo 19 do Marco Civil da Internet.
Os critérios foram consolidados em uma “tese de repercussão geral”. A tese funciona como uma orientação para ser aplicada nacionalmente pelo Poder Judiciário no julgamento de processos sobre o mesmo tema.
Nas situações contrárias, em que houver ordem judicial para restabelecer uma publicação ou perfil, as empresas não poderão ser condenadas a indenizar os usuários, segundo a decisão.
As plataformas projetam que as mudanças criarão incentivos à remoção automática de publicações controversas e, em última instância, à censura prévia nas redes sociais.
Barroso defendeu que o STF preservou, na maior extensão possível, a liberdade de expressão, “sem permitir no entanto que o mundo desabe num abismo de incivilidade, legitimando discursos de ódio ou crimes indiscriminadamente praticados na rede”.
“Produzimos uma solução bem equilibrada e moderada dentro das circunstância de um tema que é divisivo em todo o mundo”, afirmou ao encerrar a sessão.
Os quatro regimes de responsabilização das big techs definidos pelo STF:
• Responsabilidade após notificação privada (extrajudicial): publicações criminosas, ilícitas e contas inautênticas;
• Responsabilidade após ordem judicial: crimes contra a honra (injúria, calúnia e difamação);
• Responsabilidade automática: anúncios e impulsionamentos pagos ou redes artificiais de distribuição (robôs);
• Dever de cuidado: algoritmos devem ser programados para impedir a circulação massiva de publicações que configurem crimes “graves”.
Marco Civil da Internet
Por 8 votos a 3, os ministros decidiram que o artigo 19 do Marco Civil da Internet, que isenta as plataformas de responsabilidade por publicações de terceiros, exceto no caso de descumprimento de decisões judiciais para remover conteúdos, é parcialmente inconstitucional porque não prevê exceções para a punição das empresas de tecnologia
A maioria entende que houve uma “desconstitucionalização” do texto, ou seja, a norma era adequada no momento em que foi aprovada, em 2004, mas no estágio atual das redes sociais não é mais suficiente para resguardar os usuários no ambiente virtual em um contexto de escalada de casos de violência digital, como cyberbullying, stalking, fraudes, golpes, discurso de ódio e fake news.
“Há um estado de omissão parcial que decorre do fato de que a regra geral não confere proteção suficiente a bens jurídicos constitucionais de alta relevância, proteção de direitos fundamentais e da democracia”, diz a tese.
Ficaram vencidos os ministros André Mendonça, Edson Fachin e Kassio Nunes Marques. Eles defenderam que o tema deveria ser regulamentado pelo Congresso e não pelo Judiciário.
Os ministros se reuniram nesta tarde em um almoço na presidência do tribunal para chegar a um acordo, o que só ocorreu após quatro horas de debates a portas fechadas. O STF entra de recesso na próxima semana e os ministros se esforçaram para fechar a questão antes das férias coletivas.
Dever de cuidado
O Supremo Tribunal Federal definiu um rol de publicações “graves” que devem ser prontamente excluídas pelas plataformas, sem necessidade de notificação dos usuários nem de decisão judicial. Nesses casos excepcionais, as empresas devem monitorar e agir por conta própria para impedir a circulação de publicações criminosas, sob pena de responsabilização.
A punição só é possível se ficar comprovado que houve “falhas sistêmicas” na moderação de conteúdo, ou seja, publicações isoladas não são suficientes para gerar a punição das empresas.
O rol de condutas graves definido pelo STF é composto por:
• Condutas e atos antidemocráticos previstos no Código Penal;
• Terrorismo ou preparatórios de terrorismo;
• Induzimento, instigação ou auxílio a suicídio ou a automutilação;
• Incitação à discriminação em razão de raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade de gênero;
• Condutas homofóbicas e transfóbicas;
• Crimes praticados contra a mulher, em razão da condição do sexo feminino, inclusive conteúdos que propagam ódio às mulheres;
• Crimes sexuais contra pessoas vulneráveis, pornografia infantil e crimes graves contra crianças e adolescentes;
• Tráfico de pessoas.
Representante legal
Os ministros também estabeleceram uma série de obrigações para serem cumpridas pelas plataformas e provedores. Entre elas está a exigência de manter sede e representantes legais no Brasil para responder nas esferas administrativas e judicial.
Esse é um ponto que vinha gerando disputa entre as big techs e o STF e o que levou ao bloqueio temporário do Telegram e do X, que resistiam a indicar representantes no País.
Segundo a decisão, os representantes devem ter plenos poderes para prestar informações às autoridades competentes sobre funcionamento das plataformas e provedores, sobre regras de moderação de conteúdo, publicidade e impulsionamento e sobre procedimentos internos. Também devem “responder e cumprir determinações judiciais e eventuais penalizações, multas e afetações financeiras”, especialmente se houver descumprimento de obrigações legais e judiciais.
O STF também definiu que as empresas precisam editar normas de autorregulação, manter canais acessíveis para receber notificações dos usuários e divulgar relatórios anuais de transparência com informações sobre notificações extrajudiciais, anúncios e impulsionamentos.
Imagem: Reprodução
Leia outras notícias no HojeSC.