STF e a Responsabilidade das Plataformas: Notificação Extrajudicial, Ordem Judicial e Moderação Proativa.

Responsabilização das Plataformas Digitais: Avanços do STF para a Proteção dos Direitos na Era Digital.

Em 28 de junho de 2025, o Supremo Tribunal Federal (STF) divulgou uma tese de repercussão geral que declarou, de forma parcial, a inconstitucionalidade do artigo 19 do Marco Civil da Internet (Lei nº 12.965/2014).

Este dispositivo condicionava a responsabilização civil das plataformas digitais pelo conteúdo gerado por usuários à exigência de ordem judicial específica para a remoção desse conteúdo, salvo as exceções previstas em lei.

Com essa decisão, houve uma mudança significativa no regime de responsabilização das plataformas digitais.

O julgamento foi concluído em 26 de junho, que por maioria de votos 8 a 3 e após várias sessões, houve por ampliar as responsabilidades e obrigações das plataformas digitais quanto à moderação e responsabilização sobre publicações feitas por terceiros.

Os ministros estabeleceram critérios mais rigorosos para punir as plataformas quando falharem na moderação do conteúdo, indo além do modelo tradicional que exigia ordem judicial prévia para a remoção.

O presidente do STF, ministro Luís Roberto Barroso, justificou a decisão ressaltando que:

O Judiciário não poderia adiar indefinidamente o julgamento sob alegação de lacuna legislativa, enfatizando a urgência da atuação judicial diante da ausência de legislação específica.

Segundo o novo entendimento, as empresas responsáveis pelas plataformas digitais passam a responder objetivamente por crimes, atos ilícitos e contas falsas a partir do momento em que forem notificadas extrajudicialmente pelos usuários sobre conteúdo inadequado ou ilegal e descumprirem tais notificações.

Isso desloca a responsabilização do ambiente judicial para uma etapa anterior, baseada nas notificações privadas, promovendo maior tutela aos direitos fundamentais e prevenção de danos no ambiente digital.

No que se refere aos crimes contra a honra — como injúria, calúnia e difamação — mantém-se a exigência da ordem judicial para remoção dos conteúdos ofensivos.

No entanto, a decisão inovou ao impor um dever autônomo às plataformas para impedir a replicação dessas ofensas já removidas em novas publicações, independentemente da necessidade de novas decisões judiciais. Esse mecanismo tem por objetivo evitar a perpetuação do dano moral e garantir uma resposta mais eficaz diante da rapidez da circulação da informação digital.

Do ponto de vista do Direito Constitucional, essa decisão representa um esforço do STF para equilibrar a proteção da liberdade de expressão com a salvaguarda da honra, dignidade e demais direitos da personalidade, além de assegurar a segurança no ambiente virtual, marcado por fluxos contínuos e descontrolados de informações.

Ao instituir a responsabilização das plataformas a partir da notificação privada, busca-se assegurar a moderação adequada dos conteúdos, combatendo desperdícios do ambiente democrático causados pela desinformação e pelo discurso abusivo.

Essa mudança normativa também é relevante frente aos desafios contemporâneos relacionados à crise da verdade e à transformação dos processos de comunicação digital, exigindo uma regulação que preserve o debate público democrático e a integridade da informação.

Assim, o posicionamento do STF constitui uma resposta judicial essencial aos impactos da digitalização sobre a esfera pública e os direitos fundamentais, impondo maior responsabilidade às plataformas digitais na mediação dos conteúdos.

Trata-se de um avanço jurídico importante para a tutela efetiva dos direitos no ambiente digital, que demandará, no futuro, desenvolvimento legislativo complementar, porém que não poderia ser postergado diante da complexidade e urgência dessa problemática.

A decisão influencia, também, o campo do Direito da Propriedade Intelectual ao impor às plataformas um dever de diligência para impedir a perpetuação de conteúdos ilegais ou ofensivos, protegendo direitos autorais e de personalidade.

O Papel das Plataformas e a Decisão do STF sobre Responsabilidade Civil

A recente jurisprudência vinculante introduz uma nova dinâmica na responsabilização civil das plataformas digitais, com efeitos estritamente prospectivos, ou seja, aplicáveis a partir da sua publicação em diante.

Essa orientação jurídica impõe responsabilidade direta à empresa que opera o ambiente digital, mesmo na ausência de ordem judicial, bastando uma notificação para que seja exigida a atuação mitigadora sobre conteúdos gerados por terceiros que incorrem em crimes ou atos ilícitos, bem como para a remoção de contas apontadas como fraudulentas ou inautênticas.

No caso específico de crimes contra a honra, reconhece-se uma exceção normativa, mantendo-se a aplicação do artigo 19 do Marco Civil da Internet, o qual condiciona a retirada do conteúdo mediante prévia ordem judicial, preservando, assim, a segurança jurídica e a proteção à liberdade de expressão em temas sensíveis.

Quando há replicações reiteradas de mensagens ou publicações consideradas ofensivas e já declaradas ilícitas por via judicial ou extrajudicial, a jurisprudência determina que a plataforma está obrigada a remover tais conteúdos mediante simples notificação, eliminando a necessidade de nova decisão judicial a cada nova replicação.

Estabelece-se, ainda, uma presunção de responsabilidade objetiva às plataformas em situações que envolvem anúncios pagos, propagandas impulsionadas e conteúdos disseminados por meio de robôs, bots ou chatbots, independentemente de notificação prévia.

Contudo, admite-se como causa excludente dessa responsabilização a demonstração, por parte do operador da plataforma, de que tomou as providências eficazes e tempestivas para a remoção do conteúdo quando devidamente alertado, evidenciando uma atuação diligente conforme os padrões razoáveis esperados.

Em casos de falhas sistêmicas, isto é, quando as plataformas não removem prontamente conteúdos que configuram crimes graves, a responsabilidade torna-se inquestionável.

Na esfera desses ilícitos graves, enquadram-se atos antidemocráticos, terrorismo e atos preparatórios correlatos, indução, instigação ou auxílio ao suicídio e à automutilação, incitação à discriminação por motivos de raça, gênero, sexualidade e outros grupos historicamente vulnerabilizados, além de crimes sexuais contra vulneráveis, pornografia infantil, tráfico de pessoas e crimes contra as mulheres em razão do sexo.

A omissão dos provedores diante desses casos representa violação grave a deveres legais e pode ensejar a aplicação de sanções severas.

No que tange a serviços específicos, o artigo 19 permanece aplicável a provedores de serviços de e-mail, plataformas que organizam reuniões fechadas e sistemas de mensagens privadas que garantam o sigilo das comunicações, preservando as garantias do direito à intimidade e ao sigilo das comunicações.

Para os marketplaces, plataformas caracterizadas pela intermediação comercial entre diversos fornecedores e consumidores, a responsabilidade subordina-se às regras delineadas pelo Código de Defesa do Consumidor, fortalecendo a proteção dos usuários e assegurando práticas justas nas relações de consumo.

Além disso, impõem-se novas obrigações administrativas para as plataformas digitais, entre as quais destacam-se o dever de autorregulação eficaz por meio da implantação de sistemas estruturados de notificações e recursos, observando o devido processo legal.

Essas plataformas também devem publicar relatórios anuais de transparência que ilustrem sua atuação no gerenciamento e remoção de conteúdos, bem como oferecer canais de comunicação acessíveis tanto a usuários quanto a não usuários para denúncias e reclamações.

Outra exigência crucial é a manutenção de sede física e representante legal no Brasil, com plenos poderes para responder administrativa e judicialmente, garantindo maior responsabilidade e efetividade na atuação das empresas no ordenamento nacional.

Essa orientação jurisprudencial revela uma tentativa de equilíbrio jurídico entre a multiplicidade de direitos constitucionais em conflito — como a liberdade de expressão, a privacidade, a segurança e a dignidade humana — e os desafios inerentes à regulação do espaço digital, marcado pela rapidez, pela anonimidade e pela complexidade técnica.

Ao articular mecanismos de fiscalização e responsabilização direta das plataformas, promove-se um ambiente digital mais seguro e alinhado às demandas democráticas contemporâneas, embora não sem riscos de excessos, que devem ser continuamente monitorados e ponderados para evitar censuras arbitrárias e assegurar o pluralismo informativo.

Principais pontos de responsabilização e dever de cuidado das plataformas digitais.

A responsabilização civil das grandes plataformas digitais no Brasil tem sido objeto de uma evolução jurisprudencial significativa, especialmente pelo Supremo Tribunal Federal (STF), que estruturou regimes distintos para lidar com os diversos tipos de conteúdos e práticas disseminadas num ambiente digital complexo e multifacetado.

Esses regimes refletem uma tentativa de harmonizar o zelo pela liberdade de expressão com a necessidade de proteção jurídica contra danos decorrentes de conteúdos ilícitos, considerando as especificidades técnicas e sociais do espaço digital.

Responsabilidade após notificação privada (extrajudicial)

O primeiro regime de responsabilização imposto às plataformas ocorre mediante simples notificação extrajudicial, conferindo o dever imediato de remoção a conteúdos reconhecidamente criminosos ou ilícitos, bem como perfis ou contas identificadas como inautênticas ou fraudulentas.

Esse modelo destaca a responsabilidade ativa das plataformas, que se tornam corresponsáveis pela circulação de informações quando devidamente alertadas sobre sua natureza ilegal, rejeitando a omissão diante de manifestações nocivas e fortalecendo o compromisso com a integridade do ambiente digital.

Responsabilidade após ordem judicial

Em contrapartida, para os crimes contra a honra — especificamente injúria, calúnia e difamação — aplica-se o regime tradicional de exigência de ordem judicial para a retirada dos conteúdos. Essa regra reforça o princípio do devido processo legal e preserva o equilíbrio entre a tutela do direito à honra e a proteção da liberdade de expressão, evitando censuras prematuras e garantindo que a restrição aos discursos potencialmente ofensivos passe previamente pelo crivo do Poder Judiciário.

Responsabilidade automática

Outro regime relevante diz respeito à responsabilização automática das plataformas diante de conteúdos comercialmente impulsionados, como anúncios pagos e propagandas impulsionadas, bem como aquelas veiculadas por meio de sistemas artificiais de distribuição, incluindo robôs e algoritmos automatizados. Nesta hipótese, não se exige notificação prévia, por se reconhecer o potencial massificador e a influência direta desses meios na propagação de informação, o que justifica uma maior diligência e regulação para impedir abusos e manipulações no processo comunicativo digital.

Dever de cuidado com os algoritmos

Importante destacar um cuidado jurídico e técnico indispensável: os algoritmos devem ser meticulosamente programados para evitar a disseminação em larga escala de conteúdos que configuram crimes graves, como discursos de ódio, violência, terrorismo, e demais violações que maculem princípios constitucionais fundamentais.

Fortalecimento da democracia digital

Essa prevenção algoritmica é necessária para a proteção da ordem democrática e para salvaguardar direitos fundamentais, especialmente diante da velocidade e amplitude do compartilhamento digital. No entanto, essa programação não deve se tornar instrumento de censura prévia, preemptiva ou arbitrária, a fim de não comprometer a pluralidade e diversidade do debate público.

Essa arquitetura jurídica expressa a complexidade dos desafios que o Estado Democrático de Direito enfrenta na era digital, em que a esfera pública é ampliada e simultaneamente fragmentada, exigindo um modelo de responsabilização que reconheça a especificidade das tecnologias e dos processos comunicacionais contemporâneos.

Assim, mais do que mero controle, busca-se uma regulação que assegure a convivência equilibrada entre liberdade e responsabilidade, elementos essenciais para o funcionamento saudável da democracia na sociedade da informação.

STF e a responsabilização das Redes Sociais: Ajustes necessários sem extrapolar competências Legislativas

A decisão do STF sobre a responsabilização das redes sociais representa, inequivocamente, uma importante reinterpretação do marco regulatório da internet no Brasil, sem que, contudo, o tribunal tenha exercido atividade legislativa — competência exclusiva do Congresso Nacional, que permanece omisso em promover um debate aprofundado acerca das normas digitais.

Diferentemente da formulação do Marco Civil da Internet em 2014, que resultou de um extenso processo participativo com mais de mil contribuições da sociedade civil, o julgamento do STF procura adequar a legislação vigente ao contexto tecnológico atual.

Nesse sentido, o STF não inovou ao estabelecer obrigações gerais ou criar novas leis; antes, realizou um esforço para harmonizar a interpretação das normas jurídicas brasileiras, conforme disciplina a Lei de Introdução às Normas do Direito Brasileiro (LINDB).

Essa lei (LINDB) orienta que, diante de lacunas legais, o juiz deve se guiar pela analogia, pelos costumes e pelos princípios gerais do direito, observando sempre os fins sociais da norma e as exigências do bem comum.

Tal abordagem demonstra a orientação do STF em modular deveres de cuidado e responsabilidade por conteúdos veiculados nas plataformas digitais, especialmente nos casos que envolvem crimes contra a honra, com vistas à preservação da liberdade de expressão.

Importante destacar que o STF procurou evitar interpretações que possam ensejar censura prévia ou restringir injustificadamente o pluralismo de opiniões no ambiente digital.

A decisão, que equivale a uma aplicação equitativa das normas, foi dirigida de forma isonômica a todas as plataformas, independentemente do seu porte ou natureza, de modo a não obstruir inovações tecnológicas ou impor barreiras desproporcionais ao desenvolvimento do setor digital.

O STF declarando a inconstitucionalidade reforça os Direitos Fundamentais nas Redes Sociais

O STF reconheceu, porém, que a premissa original do Marco Civil da Internet, que conferia total irresponsabilidade às plataformas em relação ao conteúdo gerado por usuários — conforme artigo 19 da lei — se revelou inconstitucional, após mais de uma década de avanços tecnológicos e desafios sociais, insuficiente e incompatível com a Constituição Federal.

A Corte entendeu ser necessário ajustar a responsabilização das redes sociais, de modo a responder melhor aos anseios da sociedade quanto à tutela de direitos fundamentais, sem comprometer os pilares da governança da internet, tais como o respeito à privacidade, a neutralidade da rede e a proteção às garantias individuais.

Assim, o posicionamento do Supremo reafirma o caráter dinâmico e adaptativo do Direito frente à revolução digital, sublinhando que a regulação da sociedade da informação deve equilibrar a liberdade e a responsabilidade, garantindo que a digitalização não se converta em instrumento de fragilização do debate público ou da democracia, mas sim em ferramenta para seu fortalecimento.

Isso implica a necessidade de que o Congresso retome seu papel legislativo, promovendo ampla discussão social para consolidar um marco regulatório atualizado e legítimo, adequado à complexidade e à dimensão das transformações trazidas pela tecnologia.

A decisão do STF e o equilíbrio na Regulação das Plataformas Online

A recente decisão do STF sobre a responsabilização das plataformas digitais gerou opiniões divergentes entre juristas e especialistas em direito digital.

Contudo, ao se analisar a complexidade das questões envolvidas alguns juristas diante do cenário e à luz das transformações impostas pela digitalização da sociedade, tendem a reconhecer que a medida representa um avanço significativo na proteção da dignidade humana no ambiente virtual, sem abrir mão das garantias constitucionais fundamentais.

Ao estabelecer a obrigação de remoção extrajudicial de determinados conteúdos ilegais, mantendo, entretanto, a necessidade da atuação judicial em casos que envolvem crimes contra a honra, o STF reafirma um equilíbrio essencial para os direitos digitais.

Essa decisão exige um maior dever de cuidado por parte das grandes plataformas, que são responsáveis por impulsionar conteúdos de terceiros e obter lucros elevados a partir dessa atividade.

A responsabilidade atribuída a essas “big techs” está ligada à sua capacidade estrutural e econômica para implementar processos efetivos de moderação, diferentemente das pequenas empresas e startups que ainda carecem de infraestrutura para tais exigências.

No campo jurídico, a decisão não rompe com o marco legal vigente que garante a segurança jurídica e a liberdade de expressão.

Pelo contrário, tende a promover uma internet mais protegida contra a difusão massiva de desinformação, o que é fundamental para a integridade do debate público e para o fortalecimento do processo democrático.

O cuidado do STF em evitar que suas determinações resultem em censura privada é uma resposta sensível aos riscos de excessos.

Ainda assim, a decisão constitui apenas um passo inicial frente à complexidade do ambiente democrático na Internet, ambiente no qual a comunicação digital fragmentada e a proliferação viral de informações desafiam a formação de esferas públicas estáveis e inclusivas.

Para buscar uma democracia digital efetiva, torna-se imprescindível a ação complementar do Poder Legislativo, que deve elaborar regras claras, objetivas e adequadas para as obrigações das plataformas no ambiente digital, em consonância com os direitos fundamentais.

A nova norma imposta pelo STF tem efeito vinculante imediato sobre as instâncias judiciais inferiores, sinalizando uma mudança de paradigma na responsabilização digital no Brasil.

Essa mudança impacta não só os modelos de negócio das plataformas consolidadas, mas também o ecossistema de inovação representado pelas startups, tornando necessário um debate amplo, técnico e democrático sobre o equilíbrio entre liberdade, responsabilidade e regulação no universo online.

Assim, o enfrentamento da desinformação, das ilegalidades digitais e das contrafações passa a exigir a construção de um arcabouço jurídico robusto, que evite arbitrariedades e excessos, garanta a pluralidade informativa e preserve a dignidade humana e a democracia em sua dimensão digital.

A regulação da internet, portanto, permanece um desafio em aberto, demandando uma atuação coordenada entre os poderes e a sociedade civil para garantir um ambiente de comunicação justo, transparente e seguro.

A recente decisão do STF sobre a responsabilização das plataformas digitais gerou opiniões divergentes entre juristas e especialistas em direito digital.

Marcos Wachowicz Autor
Publicado em 29/06/2025
Atualizado em 30/06/2025
WhatsApp