Casos práticos de responsabilidade das Plataformas Digitas após a decisão do STF.
O Supremo Tribunal Federal (STF), ao analisar a responsabilidade das plataformas digitais sobre conteúdos de terceiros, promoveu uma evolução significativa na adequação do Marco Civil da Internet aos desafios contemporâneos, conciliando proteção de direitos fundamentais e segurança jurídica. No autos do Recurso Extraordinário (RE) 1037396 (Tema 987 da repercussão geral), relatado pelo ministro Dias Toffoli, e no RE 1057258 (Temas 533), relatado pelo ministro Luiz Fux.
Alguns esclarecimentos preliminares são necessários a presente analise parte do pressuposto de que as Plataformas Digitais desenvolvem uma atividade economica que está sujeita ao artigo 170 da Constituição Federal, bem como, na medida que sua atividade se desenvolva em território brasileiro se sujeita também ao artigo 11 do Marco Civil da Internet. Assim, com estes parametros iniciais de análise que devem ser de plano esclarecidos, passa-se a abordar questões de casos práticos de responsabilidade civil das Plataformas Digitais, após a divulgação pelo STF da a íntegra da tese de repercussão geral e do resumo do julgamento (Informação à Sociedade)
A partir destes parâmetros analisa-se os tipos de provedores e suas atividades específicas buscando casos práticos de aplicação diante das novas responsabilidades a estas atividades econômicas atribuidas.
Provedores neutros – simples mensagens de WhatsApp não são atingidas.
Conforme destacado na recente decisão, a aplicação do artigo 19 do Marco Civil continua plenamente válida para determinados provedores ditos neutros, que não exercem qualquer controle editorial sobre as mensagens, como serviços de e-mail, aplicativos para reuniões fechadas e plataformas de mensagens instantâneas, incluindo o WhatsApp, exclusivamente no que tange às comunicações interpessoais, que são resguardadas pelo sigilo constitucional.
Provedores com conteúdo de terceiro impulsionado, monetizado e patrocinado.
Na questão da responsabilidade de conteúdo postado terceiro patrocinado em plataformas digitais, o Superior Tribunal de Justiça (STJ) já havia firmado entendimento de sua aplicabilidade em julgados recentes, como foi no caso da responsabilização da Google Ads por publicidade com violação de marca registrada.
O STF na mesma linha de entendimento reconheceu a necessidade de ampliar a responsabilização das plataformas diante de situações específicas que potencializam riscos à ordem pública e aos direitos individuais.
Assim, foram estabelecidas duas hipóteses em que as plataformas podem ser responsabilizadas mesmo sem a necessidade de ordem judicial ou notificação prévia:
- Casos de impulsionamento pago de anuncios, momento em que a plataforma efetivamente aprova a veiculação publicitária, assumindo, assim, conhecimento tácito sobre o conteúdo;
- Caso da identificação do uso ilícito de redes artificiais de distribuição, como chatbots ou robôs, que disseminam conteúdos de forma automatizada.
Nesses contextos, opera-se uma presunção de conhecimento por parte da plataforma quanto à ilicitude material, cabendo a ela demonstrar que agiu, em tempo razoável e com diligência, para a remoção do conteúdo ilícito.
Provedores com conteúdo de terceiros e o dever de cuidado.
A questão do dever de cuidado é ainda mais relevante é a tentativa do Supremo em assegurar que conteúdos que envolvam crimes gravíssimos sejam prevenidos de forma proativa pelas plataformas, mediante o chamado dever de cuidado.
Essa obrigação impõe às plataformas digitais o encargo de agir diligentemente para impedir que determinadas mensagens ou manifestações ilícitas sequer sejam publicadas, independentemente de qualquer ordem judicial ou notificação.
Entre os crimes previstos nesse contexto encontram-se o terrorismo; a indução ao suicídio ou à automutilação; a pornografia infantil e crimes contra crianças, adolescentes e demais pessoas vulneráveis; o tráfico de pessoas; a discriminação e o discurso de ódio; os crimes contra mulheres por razões de gênero; e atos antidemocráticos, verdadeiros atentados à ordem constitucional e à convivência democrática.
Importante destacar que a responsabilização pelo descumprimento desse dever de cuidado só ocorrerá diante de falha sistêmica do provedor, ou seja, quando restar comprovada a ausência de adoção de medidas eficazes para prevenir ou remover esses conteúdos nocivos.
A simples existência isolada de um conteúdo ilícito não implica, por si só, responsabilidade civil da plataforma.
Regulação das Plataformas Digitais pelo STF.
A interpretação do STF do Marco Civil da Internet representa um avanço fundamental para o direito digital brasileiro, pois equilibra a proteção da liberdade de expressão e a segurança dos usuários, reforça a responsabilidade social das plataformas e se alinha a padrões internacionais modernos de regulação da internet.
Ao adotar uma postura que exige atitude proativa e diligente das plataformas, o Tribunal promove um ambiente virtual mais seguro e respeitador dos direitos humanos, sem descurar do sigilo e da proteção das comunicações privadas, elemento indispensável à democracia.
Dessa forma, a decisão do STF não apenas atualiza o marco jurídico vigente, mas também fortalece a cultura de responsabilidade compartilhada no ambiente digital, prestigiando a cidadania e o Estado Democrático de Direito.
Decisão do STF e casos práticos de sua aplicação nas Plataformas Digitais.
É fundamental apresentar de forma clara as hipóteses e exemplos práticos de aplicação da decisão do STF, para facilitar o entendimento sobre quando e como as plataformas digitais podem ser responsabilizadas.
Dessa forma, será possível garantir maior segurança jurídica e orientar adequadamente as ações das plataformas diante das novas regras.
Caso de anuncio falso e patrocinado nas Redes Sociais, buscadores e sites de reclamação.
Com a recente decisão do STF sobre o artigo 19 do Marco Civil da Internet, as plataformas digitais no Brasil, como redes sociais, buscadores e até sites de reclamação, passam a responder civilmente por conteúdos de terceiros de forma mais abrangente e equilibrada.
Por exemplo, imagine um caso em que um usuário publica um anúncio falso e pago em uma rede social para promover um produto enganoso, casos como estes são inúmeros e estão em tramite no judiciario brasileiro.
Segundo a decisão do STF, a plataforma poderá ser responsabilizada mesmo sem ordem judicial, pois aprovou o conteúdo publicitário e deve zelar pela veracidade das informações divulgadas, ou seja, impõe as redes de maketplace o dever de cuidado com anuncios patrocinados.
Além disso, a plataforma se detectar o uso de robôs para espalhar conteúdos ilícito ela também deve agir rapidamente para removê-los, sob pena de responsabilização por falha sistêmica.
Com efeito, de acordo com o Código de Defesa do Consumidor (CDC) a responsabilidade é objetiva da Plataforma que presta serviços deve ser observada e garantida ao usuário, aqui também está a sua responsabilidade por falhas sistemicas e a integridade das contas garantidas, tudo conforme o artigo 14 do CDC.
Por outro lado, para outros tipos de conteúdos, a responsabilidade da plataforma dependerá do cumprimento de ordens judiciais ou notificações extrajudiciais, garantindo proteção à liberdade de expressão e segurança jurídica.
A decisão do STF traz, portanto, um regime que exige das plataformas diligência e proatividade na moderação, equilibrando proteção aos direitos fundamentais e combate a abusos no ambiente digital — um avanço importante para a internet brasileira
Caso de conteúdos ilícitos previstos pela legislação brasileira.
A decisão do STF sobre a responsabilidade das plataformas digitais determina que todas as plataformas — desde grandes redes sociais até pequenos sites — devem agir com diligência para prevenir e remover conteúdos ilícitos, mesmo sem ordem judicial.
Por exemplo, se um site de classificados recebe anúncios falsos que promovem golpe financeiro, ele tem o dever de agir prontamente para retirar esses anúncios.
A fraude geralmente se inicia com anúncios visualmente atrativos, que transmitem confiança ao consumidor. No entanto, muitas vezes, os responsáveis por esses conteúdos nem sequer oferecem o serviço prometido ou atuam de forma maliciosa durante o atendimento”, destaca Walter Faria, diretor-adjunto de Serviços da Febraban.
Caso a plataforma não o faça, pode ser responsabilizada civilmente pelos danos causados.
Essa orientação amplia o dever de cuidado das plataformas, protegendo os usuários e reforçando a responsabilização por conteúdos de terceiros na internet.
Caso de marketplaces e a observância do Código de Defesa do Consumidor.
A decisão do STF sobre a responsabilidade das plataformas digitais esclarece que marketplaces como Mercado Livre e OLX devem respeitar o Código de Defesa do Consumidor, que é uma legislação conhecida e consolidada há mais de 30 anos no Brasil.
Por exemplo, se um comprador adquirir um produto defeituoso via uma dessas plataformas, ele poderá recorrer ao CDC para exigir troca ou reparação, responsabilizando não só o vendedor, mas também o marketplace por não garantir segurança e transparência na transação. Algumas Plataformas já possuem postura proativa nestes casos como o Facebook.
O Facebook lançou novas orientações para ajudar usuários do Marketplace a identificar e evitar golpes. A Central Antigolpes da Meta oferece dicas práticas para reconhecer fraudes, que podem atingir tanto compradores quanto vendedores.
Em caso de suspeita, a recomendação é interromper a conversa e denunciar o anúncio. A iniciativa aumenta a proteção e traz mais confiança para quem compra e vende na plataforma.
Assim, a decisão fortalece a proteção do consumidor no ambiente digital, promovendo segurança jurídica e responsabilização clara das plataformas, afastando a ideia de que o comércio online ficaria desregulado.
Caso do uso de tecnologias de inteligência artificial para impulsionar publicidades segmentadas
A decisão recente do STF sobre a responsabilidade das plataformas digitais estabelece um importante marco para o ambiente digital brasileiro. Por exemplo, imagine uma rede social que utiliza chatbots baseados em inteligência artificial para interagir com usuários e impulsionar publicidades segmentadas.
Caso esta plataforma permita a veiculação de um anúncio que infringe direitos de propriedade intelectual ou contenha discurso de ódio, ela deverá agir com diligência para remover o conteúdo, mesmo sem ordem judicial.
Isso porque o STF afastou a responsabilidade objetiva tradicional e adotou um regime de presunção de responsabilidade, exigindo que as plataformas demonstrem terem atuado preventivamente e em tempo razoável para evitar danos.
Dessa forma, a decisão obriga as plataformas a implementar sistemas eficazes de moderação e transparência, protegendo direitos fundamentais como a dignidade, a propriedade intelectual e a democracia, sem tolher o desenvolvimento tecnológico.
No caso exemplificado, se a rede social não agir prontamente para retirar o conteúdo ilícito identificado, poderá ser responsabilizada civilmente, inclusive por falha sistêmica, reforçando a importância do “dever de cuidado” no mundo digital.
Indubitavelmente buscou o STF com esse entendimento equilibrar inovação e proteção jurídica, garantindo maior segurança para usuários e titulares de direitos.
Caso de crimes graves e uso de chatbots para distribuição ilícita.
A decisão do STF estabelece que plataformas digitais só serão responsabilizadas por conteúdos de terceiros sem ordem judicial em casos específicos, como crimes graves e uso de chatbots para distribuição ilícita, exigindo atuação proativa e diligente das plataformas para remoção desses conteúdos. Para crimes contra a honra, permanece necessária ordem judicial, mas a remoção de conteúdos idênticos pode ocorrer com notificação.
Exemplificando o caso em que uma rede social identifique perfis falsos replicando discursos de ódio contra uma comunidade vulnerável. Segundo a decisão do STF, a plataforma deve agir imediatamente para remover tais perfis, independentemente de ordem judicial, aplicando o dever de cuidado para prevenir danos maiores.
Caso ignore notificações extrajudiciais ou judiciais e mantenha o conteúdo, poderá responder civilmente por falha sistêmica.
Por outro lado, se o conteúdo for uma crítica ofensiva que configure crime contra honra, a plataforma deverá remover apenas após ordem judicial, respeitando a liberdade de expressão.
O novo modelo de responsabidade é mais adequado a realidade tecnológica.
O STF impõe um modelo de responsabilidade subjetiva e proativa, que obriga as plataformas a criarem mecanismos eficientes de moderação, transparência e atendimento, equilibrando proteção dos direitos fundamentais e segurança jurídica.
Antes da recente decisão do STF, o Marco Civil da Internet previa que conteúdos reclamados permanecessem no ar até ordem judicial expressa para remoção — um modelo “na dúvida, pró-liberdade de expressão”, adequado a uma internet menos dinâmica, como a do Orkut, envolvida no caso-base julgado. Contudo, com o avanço tecnológico e a proliferação de abusos nas redes sociais, esse regime mostrou-se insuficiente para proteger direitos fundamentais e o ambiente democrático.
Com a decisão, o STF estabeleceu que, em situações envolvendo crimes graves, contas falsas ou conteúdos ilícitos reiterados, as plataformas devem agir prontamente para remover esses conteúdos após notificação extrajudicial, invertendo o modelo para “na dúvida, pró-remoção”.
Por exemplo, se uma pessoa for vítima de um perfil falso que espalha discursos de ódio ou ataques graves, a plataforma será obrigada a remover o conteúdo assim que receber o aviso, mesmo sem ordem judicial.
Se não o fizer, pode ser responsabilizada civilmente por falha na prevenção ou remoção.
Esse entendimento impõe um “dever de cuidado” às plataformas, equilibrando a proteção à liberdade de expressão com a preservação dos direitos à honra, à dignidade e à democracia, sem desconsiderar o contraditório e o devido processo.
A decisão do STF, portanto, atualiza o Marco Civil para o contexto digital atual, garantindo maior segurança jurídica e responsabilização, sem sacrificar as liberdades constitucionais que são pilares do Estado Democrático de Direito.