‘Liberdade regulada é a única liberdade’, diz Flávio Dino - Estadão


The Brazilian Supreme Court is debating the responsibility of social media platforms for user-generated content, leading to a discussion about the balance between freedom of speech and online safety.
AI Summary available — skim the key points instantly. Show AI Generated Summary
Show AI Generated Summary

O ministro Flávio Dino, do Supremo Tribunal Federal (STF), deu mais um voto nesta quarta-feira, 11, para responsabilizar provedores e redes sociais por publicações de usuários. Com a manifestação, há quatro votos para ampliar as obrigações das big techs na moderação de conteúdo.

Em seu voto, o ministro defendeu que “a liberdade regulada é a única liberdade”. “Liberdade sem responsabilidade é anarquia, conduz à barbárie”, afirmou.

Dino argumentou que, como qualquer atividade econômica, as plataformas precisam de regulamentação.

“É absolutamente razoável que nós fortaleçamos o dever de vigilância, de prevenção, de cuidado, de precaução. Um shopping não tem que manter seguranças? Um banco não tem que manter seguranças? Qualquer atividade tem bônus e ônus”, defendeu.

Com voto de Flávio Dino, placar no STF a favor da responsabilização civil das plataformas por conteúdos de terceiros chega a 4 a 1. Foto: Antonio Augusto/STF

O que o STF está julgando?

O julgamento gira em torno do artigo 19 do Marco Civil da Internet, que proíbe a responsabilização das plataformas por conteúdos publicados pelos usuários, exceto se houver descumprimento de decisões judiciais para remover publicações.

O STF vai decidir se se amplia a obrigação das plataformas de fiscalizarem os conteúdos que circulam nas redes - um dos maiores pontos de inquietação das big techs.

O tribunal também precisa definir se - e em que casos - as empresas de tecnologia podem ser punidas por publicações mesmo quando não houver ordem judicial para tirá-las do ar, o que implicaria uma moderação de conteúdo mais rigorosa.

Internamente, o julgamento é considerado o mais importante da história recente do Supremo. A tendência é que a sistemática atual seja substituída por um conjunto de normas mais rígidas. Apesar disso, há diferenças nas teses propostas.

Até o momento, além de Flávio Dino, votaram os ministros Dias Toffoli, Luiz Fux, Luís Roberto Barroso e André Mendonça.

Enquanto Toffoli e Fux defendem punições para as empresas de tecnologia que não removerem publicações ofensivas imediatamente após a notificação dos usuários, Barroso considera que a exigência de ordem judicial para remoção desses conteúdos deve continuar a valer, desde que as empresas melhorem seus sistemas internos de monitoramento.

Toffoli e Fux defendem ainda que é dever das plataformas impedir espontaneamente a circulação de publicações criminosas. Para Barroso, nos casos de crime, a notificação extrajudicial deve ser suficiente para a remoção do conteúdo.

Já André Mendonça defende manter as regras como estão.

Veja como cada ministro votou até o momento:

Toffoli foi o primeiro a votar e apresentou manifestação mais contundente pela responsabilização das plataformas.  Foto: WILTON JUNIOR/ESTADÃO

Dias Toffoli

Toffoli foi o primeiro a votar. Para o ministro, a restrição imposta pelo Marco Civil da Internet é inconstitucional porque cria uma “imunidade” para as empresas de tecnologia e, ao mesmo tempo, deixa os usuários desprotegidos em um contexto de escalada de casos de violência digital, como cyberbullying, stalking, fraudes e golpes, discurso de ódio e fake news.

Toffoli propõe que as plataformas sejam punidas se ignorarem notificações extrajudiciais, preferencialmente por meio dos seus canais de atendimento, para remover conteúdos ilícitos, como fake news e ofensas. Com isso, a responsabilidade dessas empresas por publicações irregulares começaria a partir do momento em que forem notificadas pelos próprios usuários e não a partir do momento em que descumprissem decisões judiciais de remoção dos conteúdos.

O ministro também definiu um rol de “práticas especialmente graves” que, segundo o voto, devem ser prontamente excluídas pelas plataformas, sem necessidade de notificação dos usuários nem de decisão judicial, como tráfico de pessoas, racismo, terrorismo, estímulo ao suicídio e à violência, crimes contra o Estado Democrático de Direito, violência contra mulheres, crianças, adolescentes e pessoas vulneráveis, entre outros.

Nesses casos excepcionais, as empresas devem monitorar e agir por conta própria para impedir a circulação de publicações criminosas, sob pena de responsabilização. O voto prevê ainda que perfis falsos devem ser barrados pelas redes sociais.

Fux deu o segundo voto no processo, em dezembro.  Foto: Antonio Augusto/STF

Luiz Fux

O ministro Luiz Fux deu o segundo voto para ampliar a responsabilidade das plataformas e provedores por conteúdos publicados pelos usuários. Ele defendeu a inversão do modelo em vigor. A proposta é que as plataformas sejam obrigadas a remover imediatamente publicações questionadas pelos usuários e, se discordarem da necessidade de remoção, que acionem a Justiça para obter autorização para disponibilizar novamente o conteúdo.

Assim como Toffoli, o ministro Luiz Fux propõe que as plataformas sejam obrigadas a monitorar e a remover espontaneamente publicações criminosas, como discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado Democrático de Direito e apologia a golpe de Estado.

“Conteúdos lesivos de direitos fundamentais, tais como fake news, discurso de ódio ou mesmo difamatórios, podem gerar engajamento substancialmente maior do que conteúdos lícitos e verdadeiros”, alertou o ministro.

Os pontos-chave do voto de Fux:

  • Inverter o ônus da judicialização: a plataforma é que deve pedir autorização judicial para manter no ar publicações questionadas pelos usuários;
  • As plataformas e provedores respondem por postagens ofensivas à honra, à imagem e à privacidade quando forem notificadas “por qualquer meio idôneo”;
  • Canais “eficientes, funcionais e sigilosos” para receber denúncias e reclamações de usuários que se sintam lesados;
  • Monitoramento ativo de publicações criminosas, como discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado Democrático de Direito e ao golpe de Estado;
  • Responsabilidade automática no caso do impulsionamento pago: as plataformas precisam verificar se o conteúdo que recebem para impulsionar são regulares.
Presidente do STF votou para reconhecer a constitucionalidade do artigo 19 do Marco Civil da Internet, mas ao mesmo tempo definir que ele é insuficiente. Foto: Antonio Augusto/STF

Luís Roberto Barroso

O presidente do STF sugere como alternativa o chamado “dever de cuidado”. Segundo a proposta, as big techs devem criar mecanismos para melhorar a qualidade da informação, mas só podem ser punidas por falhas amplas, isto é, pela omissão na gestão global dos conteúdos ilícitos e não por casos individuais.

Em discurso nesta quarta, na retomada do julgamento, Barroso fez um um pronunciamento em que negou que o tribunal esteja invadindo competências do Congresso ao julgar o tema.

O ministro afirmou que o STF tem o dever de definir critérios claros para serem aplicados em casos concretos que chegarem ao Judiciário e que essas balizas “só prevalecerão” até que o Congresso aprove legislação sobre o assunto.

Os pontos-chave do voto de Barroso:

  • A exigência de ordem judicial para remoção de conteúdo continua a valer, mas é insuficiente;
  • Notificação privada (extrajudicial) e retirada de conteúdos como regra geral para publicações criminosas;
  • Necessidade de decisão judicial para remoção de publicações que configurem crimes contra a honra (injúria, calúnia e difamação);
  • Responsabilidade das plataformas, independente de notificação, por publicações ilícitas que forem impulsionadas ou veiculadas em anúncios pagos;
  • Dever de cuidado: plataformas têm a obrigação de mitigar riscos criados ou potencializados pelas suas atividades, sobretudo quando impactarem “direitos individuais e coletivos e a estabilidade democrática”, e só podem ser responsabilizadas se houver uma “falha sistêmica” nesse trabalho;
  • As plataformas têm que agir proativamente, ou seja, de ofício, para remover publicações sobre pornografia infantil, incentivo ao suicídio, tráfico de pessoas, atos de terrorismo, abolição violenta do Estado Democrático de Direito e golpe de Estado;
  • O Congresso deve definir as sanções possíveis para as plataformas e criar um órgão regulador independente e autônomo para a análise de conformidade, monitoramento e eventual aplicação das punições;
  • As plataformas devem criar sistemas para a recepção de notificações dos usuários, com interface acessível e amigável, e publicar relatórios anuais, “claros e facilmente compreensíveis” sobre a atividade de moderação de conteúdo.
André Mendonça votou para manter regras do Marco Civil da Internet.  Foto: Wilton Júnior/Estadão

André Mendonça

Mendonça votou para manter a sistemática atual de responsabilidade das plataformas por publicações de usuários - apenas em caso de descumprimento de decisões judiciais para remover conteúdos. Foi o único voto alinhado com os interesses das big techs.

Mendonça equiparou as redes sociais a veículos de comunicação e jornalísticos e defendeu que, por isso, elas não podem sofrer restrições “à plena liberdade de informação”.

O ministro argumentou que considera arriscado transferir da Justiça para as próprias plataformas a moderação de conteúdos controversos.

“Não vislumbro como transferir às plataformas e, por consequência, ao algoritmo, o dever de ponderar, de modo automático e artificial, os valores em disputa, especialmente quando um desses valores é a liberdade de expressão”, defendeu.

Na avaliação de Mendonça, se as plataformas estiverem sujeitas a penalidades por conteúdos publicados por terceiros, a tendência é um aumento da vigilância sobre a atividade online dos usuários.

“A análise do tema enseja uma alteração de foco. Deixar de mirar na responsabilidade pela remoção do conteúdo ou do perfil, passando-se a destinar atenção aos protocolos e procedimentos empregados pelas plataformas na tentativa de criar um ambiente digital mais hígido, íntegro e salutar.”

Os pontos-chave do voto de André Mendonça:

  • Plataformas não respondem por conteúdos de terceiros;
  • É inconstitucional a remoção ou suspensão de perfis, exceto quando comprovadamente falsos, robôs ou criminosos;
  • Em serviços de mensageria privada, como WhatsApp e Telegram, prevalece a proteção à intimidade, vida privada, sigilo das comunicações e proteção de dados;
  • A decisão que determinar a remoção de conteúdo deve apresentar fundamentação específica e, ainda que proferida em processo judicial sigiloso, deve ser acessível à plataforma responsável pelo seu cumprimento, facultada a possibilidade de impugnação.

Flávio Dino

O ministro iniciou o voto defendendo que apresentaria uma posição moderada em busca do consenso no plenário.

“Se dependesse de mim, o resultado desse julgamento seria outro, bastante diferente, e seria muito mais rigoroso.”

Ainda na apresentação, Dino apresentou exemplos como o de ataques a escolas e de crimes contra crianças e adolescentes estimulados nas redes sociais para defender um controle mais rígido sobre as publicações.

Os pontos-chave do voto de Flávio Dino:

  • Os provedores podem ser responsabilizados pelos danos decorrentes de conteúdos gerados por terceiros se não removerem as publicações após notificação dos usuários, “ressalvadas as disposições específicas da legislação eleitoral e os atos normativos expedidos pelo TSE”;
  • A ordem judicial é necessária apenas no caso de alegações de ofensas e crimes contra a honra (injúria, calúnia e difamação);
  • As plataformas têm obrigação de remover por iniciativa própria, independente de notificação judicial e extrajudicial, postagens de perfis falsos e robôs e “ilicitudes” veiculadas em anúncios pagos e publicações patrocinadas;
  • Os provedores podem ser punidos, nos termos do Código de Defesa do Consumidor, por “falhas sistêmicas” na moderação de publicações que representem crimes contra crianças e adolescentes, induzimento, instigação ou auxílio a suicídio e automutilação, terrorismo e crimes contra o estado democrático de direito. Nesses casos, se o conteúdo for restaurado por ordem judicial, as plataformas não podem ser condenadas a pagar indenização ao autor das postagens;
  • Os provedores deverão editar autorregulação que abranja necessariamente um sistema de notificação, um devido processo e um relatório anual de transparência em relação a notificação extrajudiciais, anúncios e impulsionamento;
  • Procuradoria-Geral da República como instância de monitoramento e fiscalização até o Congresso editar uma legislação sobre o tema.

Was this article displayed correctly? Not happy with what you see?

We located an Open Access version of this article, legally shared by the author or publisher. Open It
Tabs Reminder: Tabs piling up in your browser? Set a reminder for them, close them and get notified at the right time.

Try our Chrome extension today!


Share this article with your
friends and colleagues.
Earn points from views and
referrals who sign up.
Learn more

Facebook

Save articles to reading lists
and access them on any device


Share this article with your
friends and colleagues.
Earn points from views and
referrals who sign up.
Learn more

Facebook

Save articles to reading lists
and access them on any device