Quem deve ser responsabilizado pelo que circula nas redes sociais

As redes sociais se tornaram parte essencial da vida moderna, mas junto com as oportunidades de conexão surgem também grandes desafios.

O recente embate entre Elon Musk e o Supremo Tribunal Federal colocou novamente em evidência um dos temas mais polêmicos da era digital: a responsabilidade das plataformas de redes sociais pelo conteúdo criado por seus usuários.

A questão é simples de formular, mas difícil de responder: quem deve responder quando uma postagem atinge a honra, a intimidade ou os direitos de alguém? Apenas o autor da publicação ou também a rede que hospedou o conteúdo?

Um exemplo ajuda a ilustrar: imagine que Maria use o Setwonder, o Facebook ou o Instagram para caluniar José ou divulgar uma foto dele sem consentimento. Nesse caso, José poderia exigir reparação apenas da autora da postagem? Ou também caberia processar a plataforma que serviu de “palco” para a ofensa?

Essa é a essência do debate sobre se existe — ou não — um “dever geral de vigilância” das plataformas.

 

O olhar da União Europeia

Na Europa, o tema começou a ser tratado pela Diretiva de Comércio Eletrônico (2000/31/CE), que excluía expressamente a obrigação das plataformas de monitorar preventivamente todas as informações publicadas por seus usuários. A lógica era clara: não se pode exigir que cada postagem seja fiscalizada previamente.

O modelo adotado foi o “notice and take down” (notificação e retirada). Assim, os provedores só poderiam ser responsabilizados se, após receberem uma notificação, deixassem de remover o conteúdo ilícito.

Em 2022, esse regime foi atualizado pelo Digital Services Act (DSA), em vigor desde fevereiro de 2024. O regulamento reforçou que não há dever geral de vigilância, mas que, uma vez informadas sobre conteúdo ilegal, as redes devem agir com diligência para removê-lo.

Ou seja: a regra continua sendo a responsabilidade condicionada — depende de conhecimento prévio da ilicitude.

 

O modelo americano

Nos Estados Unidos, a proteção às plataformas é ainda mais ampla. A Section 230 do Telecommunications Decency Act (1996) estabelece que nenhum provedor ou usuário de serviço interativo pode ser tratado como “editor” ou “autor” de informações publicadas por terceiros.

Em termos práticos, isso significa que as redes sociais não podem ser responsabilizadas pelo que os usuários postam, a não ser em situações muito específicas.

Essa proteção robusta é apontada por muitos como um dos fatores que possibilitaram o crescimento exponencial da internet americana — mas também como um dos motivos para a disseminação desenfreada de desinformação.

 

E no Brasil?

Aqui, o debate começou ainda na época do Orkut. Em 2010, o STJ decidiu que o Google não poderia ser responsabilizado automaticamente pelo conteúdo publicado na rede, consolidando a aplicação do modelo “notice and take down”: após notificação, a empresa teria até 24 horas para remover a postagem, sob pena de responder solidariamente pelos danos.

Mas esse cenário mudou com o Marco Civil da Internet (2014). Pelo artigo 19, as plataformas só são obrigadas a remover conteúdo mediante ordem judicial específica — o chamado “judicial notice and take down”.

A única exceção está no artigo 21: casos de violação de intimidade (como divulgação não autorizada de imagens íntimas) podem ser removidos apenas com notificação da vítima.

Esse modelo buscou equilibrar liberdade de expressão e segurança jurídica para as empresas, mas trouxe um efeito colateral: tornou a exclusão de conteúdos ofensivos mais lenta e burocrática, já que depende do Judiciário — que, por sua vez, sofre com excesso de demandas.

 

Onde está o impasse?

O problema é claro: com milhões de postagens diárias, exigir decisão judicial para cada remoção pode gerar uma verdadeira paralisia do Judiciário. Por outro lado, conceder às plataformas um poder irrestrito de moderação pode resultar em censura privada e limitação indevida da liberdade de expressão.

Juristas como Martins e Longhi defendem que, à luz do Código de Defesa do Consumidor (art. 14), caberia a responsabilidade objetiva das redes sociais — afinal, elas lucram com a circulação massiva de informações e possuem meios técnicos para identificar autores de abusos.

Outros argumentam que seria injusto equiparar plataformas a “editores”, já que não produzem diretamente o conteúdo, comparando a situação a um restaurante: se um cliente agride outro, o restaurante só responde se ficar provada falha de segurança ou omissão.

 

Caminhos possíveis

Hoje, vigora no Brasil o modelo do judicial notice and take down. Não é inconstitucional, mas já se mostra insuficiente diante da escala e da velocidade da comunicação digital.

Uma das propostas em discussão é a criação de mecanismos internos de moderação, inspirados em sistemas de resolução de disputas online (ODR), usados em plataformas como o Mercado Livre e o eBay. A ideia seria permitir a suspensão preventiva de conteúdos denunciados, abertura de contraditório ao autor e decisão final pela própria rede, com possibilidade de revisão judicial apenas em último caso.

Outra frente é o Projeto de Lei 2.630/2020 (PL das Fake News), que prevê a imposição de deveres de vigilância mais rigorosos às plataformas. Críticos, porém, alertam que tal obrigação pode gerar custos excessivos, riscos de censura e concentração de poder nas mãos das big techs.

 

Uma Breve Conclusão

O dilema segue em aberto: como responsabilizar sem sufocar a liberdade de expressão?
Seja por meio de mudanças legislativas, seja por práticas de compliance das próprias plataformas, o fato é que o modelo atual está em xeque.

As experiências da União Europeia e dos Estados Unidos mostram que é possível proteger tanto a inovação quanto os direitos fundamentais, desde que haja regras claras e proporcionais.

No Brasil, a evolução desse debate será decisiva não apenas para gigantes globais como Meta ou X, mas também para redes independentes e emergentes, como o Setwonder, que precisam encontrar o ponto de equilíbrio entre liberdade, responsabilidade e segurança digital.

 

Nossa posição sobre a responsabilidade das plataformas

No Setwonder, entendemos que responsabilizar uma rede social pelo conteúdo criado por seus usuários é injusto. A plataforma não endossa nem publica informações ilícitas: ela apenas oferece o espaço digital para que cada pessoa exerça sua liberdade de expressão.

Por outro lado, reconhecemos que existe um dever de cuidado. Isso significa que, sempre que um conteúdo potencialmente ilegal ou que viole nossas políticas de uso for identificado, a equipe de moderação deve ser imediatamente notificada. A partir daí, um administrador analisará o caso e tomará as medidas necessárias, que podem incluir a remoção do material e, se cabível, a aplicação de sanções ao responsável.

Assim, buscamos equilibrar liberdade e segurança, preservando tanto o direito de expressão quanto a proteção da comunidade.


Comments