Brasil/Mundo
STF tem maioria para responsabilizar redes por conteúdo de terceiros
Ministros do STF analisam recursos em que se discute a responsabilidade das big techs por conteúdos de terceiros
| TOP MíDIA NEWS/METRóPOLES, PARCEIRO DO TOPMíDIANEWS
Após o voto do ministro Gilmar Mendes, na tarde desta quarta-feira (11/6), o Supremo Tribunal Federal (STF) formou maioria, de 6 x 1, para que as plataformas digitais possam ser responsabilizadas por publicações ilegais de usuários. A maioria ainda não tem definição ou parâmetros sobre como isso ocorrerá. Os critérios ainda precisam ser definidos, após os votos dos 11 ministros. A sessão foi encerrada e será retomada nesta quinta-feira (12/6).
Gilmar Mendes votou pela inconstitucionalidade parcial do art. 19 do Marco Civil. O magistrado propôs que o modelo de responsabilização de intermediários com alta interferência sobre a circulação de conteúdo de terceiros tenha quatro regimes distintos.
Sendo eles:
- Regime residual, que deverá ser aplicável tão somente nas hipóteses de crimes contra a honra e de conteúdo jornalístico;
- Regime geral, que seria aquele previsto no art. 21 do Marco Civil da Internet. Isto é, caso seja notificada da ocorrência de conteúdo ilícito em sua plataforma, esses provedores com alta interferência poderão ser responsabilizados por danos decorrentes da não remoção desse conteúdo. Isto é, poderão ser responsabilizados por permanecer inertes diante da ciência inequívoca de atos ilícitos;
- Regime de presunção, que é aplicável nas hipóteses de anúncios e impulsionamento remunerado;
- E o regime especial, em que os provedores de aplicação poderão ser solidariamente responsáveis quando não promoverem a indisponibilização imediata de conteúdos e contas que veiculem crimes graves.
Mais cedo, o ministro André Mendonça, o único que votou de modo divergente até o momento, lembrou que a “eventual necessidade de decisão judicial de possível responsabilização da plataforma, nos termos do artigo 19, não significa ausência ou exclusão de responsabilidade do autor da ofensa”.
“Liberdade de expressão encontra limites”
Os ministros começaram a votação pela manhã e a interromperam para o almoço. Às 14h48, as discussões recomeçaram com o voto do ministro Cristiano Zanin. “Vejo uma proteção deficiente a ensejar a inconstitucionalidade do artigo 19 do Marco Civil da Internet. Não está em discussão aqui a liberdade de expressão. A liberdade de expressão encontra limites, inclusive, no texto da Constituição”, afirmou.
Menos de 1h depois, Zanin votou pela responsabilização das plataformas por conteúdo de terceiros. Ao votar, ele entendeu pela parcial inconstitucionalidade do artigo 19 do Marco Civil da internet. Ele considera que o dispositivo, ao condicionar a responsabilidade de provedores à ordem judicial, mantém proteção insuficiente dos direitos fundamentais violados por conteúdos ilícitos nas plataformas digitais.
O caso foi paralisado em dezembro do ano ado, quando o ministro André Mendonça pediu vista dos autos. Mendonça retomou o julgamento em 4 de junho. Ele, que deu o único voto totalmente divergente até o momento, é pela manutenção completa do artigo 19 do Marco Civil da Internet, que prevê a necessidade de decisão da Justiça para remoção de conteúdo, além de responsabilizar o autor do post, não as redes em si.
Nesta quarta-feira (11/6), o ministro Flávio Dino proferiu seu voto. Para o ministro, a responsabilidade civil das plataformas deve ser alterada. Para ele, “o provedor de aplicações de internet poderá ser responsabilizado civilmente nos termos do artigo 21 do Marco Civil da Internet”. Isso significa que a responsabilização deve ocorrer pelos danos decorrentes de conteúdos gerados por terceiros.
Dino pondera que o previsto no artigo 19, que tem a constitucionalidade discutida na Corte, aplica-se exclusivamente a alegações de ofensas e crimes contra a honra.
Assim, propõe que sejam considerados “atos dos próprios provedores de aplicação de internet, podendo haver responsabilidade civil, independentemente de prévia notificação judicial ou extrajudicial” nos casos de:
- Postagens de perfis com anonimização do usuário, vedada pelo art. 5°, IV, da Constituição Federal, que gere obstáculos à responsabilização, incluindo perfis falsos e chatbots (robôs); e
- Ilicitudes veiculadas em anúncios pagos e postagens patrocinadas, ou mecanismos similares.
Diz ainda que os provedores podem ser responsabilizados civilmente pelos conteúdos criados por terceiros nos seguintes casos:
- Crimes contra crianças e adolescentes;
- Crime de induzimento, instigação ou auxílio ao suicídio ou à automutilação;
- Crime de terrorismo;
- Fazer apologia ou instigar violência, ou grave ameaça, visando à prática dos crimes contra o Estado Democrático de Direito devidamente tipificados em lei.
Resultado
Diante da diversidade de opiniões e teses, o ministro Luís Roberto Barroso, presidente do STF, adiantou, nesta manhã, que ainda é preciso ponderar e organizar a questão.
“Estou tabulando todos os votos, e acho que vamos conseguir um consenso sobreposto. A minha ideia de condução de julgamento é colher o voto dos ministros (Cristiano) Zanin, (Edson) Fachin e, talvez, se o ministro Gilmar (Mendes) adiantasse o voto… Mas não vamos chegar à proclamação de resultado, em nenhuma hipótese. Primeiro, que a ministra Cármen (Lúcia) não está aqui esta semana e me comprometi de aguardá-la; ministro Kassio (Nunes Marques) pediu um tempo de reflexão. De modo que vou colher tantos votos quantos queiram se manifestar, vamos tabular e tentar ver os pontos de divergência e convergência”, detalhou Barroso no plenário do STF.
A análise gira em torno da constitucionalidade do artigo 19 do Marco Civil da Internet, que estabelece que empresas como Google, Meta e X só podem ser responsabilizadas judicialmente se não cumprirem ordem expressa para retirar conteúdos considerados ilícitos.
O que prevê o artigo 19:
- limitação da responsabilidade dos provedores de aplicações de internet por conteúdo de terceiros;
- ordem judicial para remoção do conteúdo, com especificação do que deve ser removido.
- aplicação desta regra depende de legislação específica.
Votos
Até agora, sete ministros votaram. Os relatores, Dias Toffoli e Luiz Fux, defendem uma interpretação mais rígida, permitindo que as plataformas sejam punidas diretamente em casos graves, como discursos de ódio, racismo ou ameaças à democracia.
O presidente do STF, Luís Roberto Barroso, propôs uma solução intermediária, mantendo a exigência de ordem judicial para casos envolvendo honra e reputação, mas itindo responsabilização direta para crimes como pornografia infantil, terrorismo e incitação à violência.
Ao apresentar seu voto na última semana, André Mendonça criticou o que chamou de “ativismo judicial” e afirmou que mudanças nesse tipo de legislação devem partir do Congresso Nacional.
“Não se trata de fazer da opinião pública um critério de julgamento. O que se busca apontar, apenas, são os efeitos deletérios que decorrem da adoção de uma postura ativista, a qual, no presente caso, culmina por agudizar ainda mais o problema que se pretende combater”, declarou.
A retomada do julgamento reacende o debate sobre a regulação das redes sociais no Brasil, especialmente diante da ausência de uma legislação específica para o ambiente digital.
Autorregulação regulada Durante a leitura do voto, que durou dois dias, Mendonça defendeu a autorregulação regulada. Ela impõe às big techs a necessidade de aumentar mecanismos que auxiliem o controle em relação a publicações potencialmente ilegais, sem atribuir responsabilidade direta às plataformas pelo conteúdo gerado por seus usuários.
Mendonça considerou constitucional o artigo 19 do Marco Civil da Internet. A proposta defende que as próprias plataformas adotem mecanismos internos de moderação — a chamada autorregulação —, mas sob supervisão do Estado, que teria um papel fiscalizador para garantir o cumprimento de diretrizes legais.
Empresas de tecnologia contra o marco O julgamento no STF ocorre em meio à pressão de grandes empresas de tecnologia, como Google, Meta e TikTok, que têm se manifestado publicamente contra mudanças no atual modelo do Marco Civil da Internet.
As chamadas big techs alegam que eventuais alterações podem comprometer a liberdade de expressão e abrir brechas para censura prévia. Para elas, responsabilizar as plataformas antes de uma ordem judicial representaria risco à segurança jurídica e à dinâmica do ambiente digital.
Siga o Itaporã News no Youtube!
Hora a Mais com Lourdes Struziati
Grupo do WhatsApp do Itaporã News Aberto!
WhatsApp. VIP do Itaporã News clicando aqui!"
WhatsApp do Itaporã News, notícias policiais!
"Ao vivo a programação da Alternativa FM de Itaporã."