STF – O Supremo Tribunal Federal retomou nesta quinta-feira (12) a análise de recursos que discutem a responsabilidade de plataformas digitais pelas publicações feitas por seus usuários.
A Corte já formou maioria favorável à responsabilização das empresas por conteúdo de terceiros, mas os ministros ainda discutem a formulação da tese que servirá de referência para os demais tribunais.
LEIA: Tecnologia criada pela Embrapa analisa biossegurança na criação de suínos
Já declararam voto pela responsabilização os ministros Dias Toffoli, Luiz Fux, Flávio Dino, Cristiano Zanin, Gilmar Mendes e o presidente da Corte, Luís Roberto Barroso. O ministro André Mendonça votou em sentido contrário.
Nesta quinta-feira (13), os ministros Edson Fachin e Alexandre de Moraes devem apresentar seus votos. Após isso, o julgamento será interrompido temporariamente para a consolidação das diferentes propostas.
Os magistrados também trabalham na tentativa de unificar os entendimentos, já que há sugestões divergentes sobre como aplicar a responsabilização.
Após essa fase, os ministros Nunes Marques e Cármen Lúcia ainda irão se manifestar.
Responsabilidade por danos
O julgamento gira em torno de dois recursos que analisam se as redes sociais podem ser responsabilizadas por prejuízos decorrentes de conteúdos ofensivos postados por usuários, mesmo na ausência de ordem judicial para remoção do material.
Ou seja, discute-se se as plataformas podem ser condenadas a pagar indenizações por conteúdos prejudiciais — como discursos de ódio, informações falsas ou publicações ofensivas — sem que tenha havido previamente uma decisão judicial exigindo a exclusão desses materiais.
Marco Civil da Internet
Em vigor desde 2014, o Marco Civil da Internet funciona como uma carta de princípios e regras para o uso da internet no Brasil. A legislação define direitos e deveres tanto de usuários quanto de empresas.
Um de seus artigos determina que as plataformas digitais só poderão ser responsabilizadas se, após decisão judicial, deixarem de remover conteúdo considerado ofensivo.
A discussão atual no STF trata de como essas regras devem ser aplicadas quando as postagens violam direitos, promovem ódio ou espalham desinformação.
A Corte busca consolidar uma tese jurídica que valerá para processos semelhantes em instâncias inferiores. Segundo o Conselho Nacional de Justiça, 344 ações estão suspensas à espera da decisão.
Votos dos ministros
Dias Toffoli:
Relator de um dos casos, Toffoli afirmou que o artigo 19 do Marco Civil é inconstitucional.
Defendeu que, ao receber uma notificação extrajudicial da vítima ou de seu representante, a plataforma já deve agir, sem necessidade de esperar uma ordem judicial.
Em situações graves, como racismo, o ministro considera que a retirada deve ser feita mesmo sem notificação. Caso contrário, as plataformas devem ser responsabilizadas.
Luiz Fux:
Também relator de um dos processos, Fux seguiu a mesma linha de Toffoli e apontou que o artigo 19 é inconstitucional.
Para ele, a exclusão de conteúdos ofensivos deve ocorrer de forma imediata, após notificação da vítima.
Fux citou como exemplos de conteúdos ilícitos: discursos de ódio, racismo, pedofilia, incitação à violência e ataques à democracia.
Propôs ainda que as plataformas mantenham canais sigilosos de denúncia e monitorem os conteúdos postados.
Luís Roberto Barroso:
O presidente do STF sugeriu que as plataformas sejam responsabilizadas quando não agirem diante de publicações criminosas.
Nos casos de crimes contra a honra, como calúnia ou difamação, Barroso entende que a remoção só deve ocorrer após ordem judicial.
Ele também defendeu que as empresas têm um dever de cuidado para prevenir a circulação de conteúdos como pornografia infantil, incentivo ao suicídio, tráfico de pessoas, terrorismo e ataques à democracia.
André Mendonça:
Em voto divergente, Mendonça sustentou que o artigo 19 do Marco Civil é constitucional.
Ressaltou, contudo, que o dispositivo deve ser interpretado à luz da Constituição.
Para ele, a exclusão de perfis só pode ocorrer se forem comprovadamente falsos ou envolvidos com atividades ilegais.
Além disso, as plataformas devem identificar os autores de conteúdos prejudiciais, mas não podem ser responsabilizadas diretamente sem decisão judicial em casos envolvendo opiniões.
Flávio Dino:
Defendeu que a regra geral deve ser a do artigo 21 do Marco Civil, que permite responsabilização após notificação extrajudicial da vítima.
Nos crimes contra a honra, ele considera válida a aplicação do artigo 19, que exige ordem judicial.
Dino também propôs que as plataformas evitem a criação de perfis falsos, inclusive robôs e contas impulsionadas.
Se a empresa remover um conteúdo por cautela, o autor poderá recorrer à Justiça. Caso a publicação seja restabelecida, não haverá obrigação de indenizar.
Cristiano Zanin:
Apontou que o artigo 19 é parcialmente inconstitucional.
Sugeriu que, nos casos de crime evidente, a remoção deve ser feita sem ordem judicial.
Por outro lado, se a plataforma for neutra — ou seja, sem impulsionamento — e houver dúvida sobre a legalidade do conteúdo, não caberia responsabilização imediata.
Gilmar Mendes:
Ao garantir a maioria pela responsabilização, propôs quatro modelos distintos de tratamento:
1. Regime geral – Aplicação do artigo 21: retirada de conteúdo após notificação privada.
2. Regime residual – Aplicação do artigo 19: exige decisão judicial para crimes contra a honra e conteúdos jornalísticos.
3. Regime de presunção – Para anúncios pagos ou impulsionados, presume-se o conhecimento do conteúdo ilícito, dispensando notificação.
4. Regime especial – Para crimes graves ou riscos à democracia, prevê responsabilidade imediata se o conteúdo não for removido.
(Com informações de g1)
(Foto: Reprodução/Fabio Rodrigues Pozzebom/Agência Brasil)