O ministro Flávio Dino, do Supremo Tribunal Federal (STF), deu mais um voto nesta quarta-feira, 11, para responsabilizar provedores e redes sociais por publicações de usuários. Com a manifestação, há quatro votos para ampliar as obrigações das big techs na moderação de conteúdo.
Em seu voto, o ministro defendeu que “a liberdade regulada é a única liberdade”. “Liberdade sem responsabilidade é anarquia, conduz à barbárie”, afirmou.
Dino argumentou que, como qualquer atividade econômica, as plataformas precisam de regulamentação.
“É absolutamente razoável que nós fortaleçamos o dever de vigilância, de prevenção, de cuidado, de precaução. Um shopping não tem que manter seguranças? Um banco não tem que manter seguranças? Qualquer atividade tem bônus e ônus”, defendeu.
O julgamento gira em torno do artigo 19 do Marco Civil da Internet, que proíbe a responsabilização das plataformas por conteúdos publicados pelos usuários, exceto se houver descumprimento de decisões judiciais para remover publicações.
O STF vai decidir se se amplia a obrigação das plataformas de fiscalizarem os conteúdos que circulam nas redes - um dos maiores pontos de inquietação das big techs.
O tribunal também precisa definir se - e em que casos - as empresas de tecnologia podem ser punidas por publicações mesmo quando não houver ordem judicial para tirá-las do ar, o que implicaria uma moderação de conteúdo mais rigorosa.
Internamente, o julgamento é considerado o mais importante da história recente do Supremo. A tendência é que a sistemática atual seja substituída por um conjunto de normas mais rígidas. Apesar disso, há diferenças nas teses propostas.
Até o momento, além de Flávio Dino, votaram os ministros Dias Toffoli, Luiz Fux, Luís Roberto Barroso e André Mendonça.
Enquanto Toffoli e Fux defendem punições para as empresas de tecnologia que não removerem publicações ofensivas imediatamente após a notificação dos usuários, Barroso considera que a exigência de ordem judicial para remoção desses conteúdos deve continuar a valer, desde que as empresas melhorem seus sistemas internos de monitoramento.
Toffoli e Fux defendem ainda que é dever das plataformas impedir espontaneamente a circulação de publicações criminosas. Para Barroso, nos casos de crime, a notificação extrajudicial deve ser suficiente para a remoção do conteúdo.
Já André Mendonça defende manter as regras como estão.
Toffoli foi o primeiro a votar. Para o ministro, a restrição imposta pelo Marco Civil da Internet é inconstitucional porque cria uma “imunidade” para as empresas de tecnologia e, ao mesmo tempo, deixa os usuários desprotegidos em um contexto de escalada de casos de violência digital, como cyberbullying, stalking, fraudes e golpes, discurso de ódio e fake news.
Toffoli propõe que as plataformas sejam punidas se ignorarem notificações extrajudiciais, preferencialmente por meio dos seus canais de atendimento, para remover conteúdos ilícitos, como fake news e ofensas. Com isso, a responsabilidade dessas empresas por publicações irregulares começaria a partir do momento em que forem notificadas pelos próprios usuários e não a partir do momento em que descumprissem decisões judiciais de remoção dos conteúdos.
O ministro também definiu um rol de “práticas especialmente graves” que, segundo o voto, devem ser prontamente excluídas pelas plataformas, sem necessidade de notificação dos usuários nem de decisão judicial, como tráfico de pessoas, racismo, terrorismo, estímulo ao suicídio e à violência, crimes contra o Estado Democrático de Direito, violência contra mulheres, crianças, adolescentes e pessoas vulneráveis, entre outros.
Nesses casos excepcionais, as empresas devem monitorar e agir por conta própria para impedir a circulação de publicações criminosas, sob pena de responsabilização. O voto prevê ainda que perfis falsos devem ser barrados pelas redes sociais.
O ministro Luiz Fux deu o segundo voto para ampliar a responsabilidade das plataformas e provedores por conteúdos publicados pelos usuários. Ele defendeu a inversão do modelo em vigor. A proposta é que as plataformas sejam obrigadas a remover imediatamente publicações questionadas pelos usuários e, se discordarem da necessidade de remoção, que acionem a Justiça para obter autorização para disponibilizar novamente o conteúdo.
Assim como Toffoli, o ministro Luiz Fux propõe que as plataformas sejam obrigadas a monitorar e a remover espontaneamente publicações criminosas, como discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado Democrático de Direito e apologia a golpe de Estado.
“Conteúdos lesivos de direitos fundamentais, tais como fake news, discurso de ódio ou mesmo difamatórios, podem gerar engajamento substancialmente maior do que conteúdos lícitos e verdadeiros”, alertou o ministro.
Os pontos-chave do voto de Fux:
O presidente do STF sugere como alternativa o chamado “dever de cuidado”. Segundo a proposta, as big techs devem criar mecanismos para melhorar a qualidade da informação, mas só podem ser punidas por falhas amplas, isto é, pela omissão na gestão global dos conteúdos ilícitos e não por casos individuais.
Em discurso nesta quarta, na retomada do julgamento, Barroso fez um um pronunciamento em que negou que o tribunal esteja invadindo competências do Congresso ao julgar o tema.
O ministro afirmou que o STF tem o dever de definir critérios claros para serem aplicados em casos concretos que chegarem ao Judiciário e que essas balizas “só prevalecerão” até que o Congresso aprove legislação sobre o assunto.
Os pontos-chave do voto de Barroso:
Mendonça votou para manter a sistemática atual de responsabilidade das plataformas por publicações de usuários - apenas em caso de descumprimento de decisões judiciais para remover conteúdos. Foi o único voto alinhado com os interesses das big techs.
Mendonça equiparou as redes sociais a veículos de comunicação e jornalísticos e defendeu que, por isso, elas não podem sofrer restrições “à plena liberdade de informação”.
O ministro argumentou que considera arriscado transferir da Justiça para as próprias plataformas a moderação de conteúdos controversos.
“Não vislumbro como transferir às plataformas e, por consequência, ao algoritmo, o dever de ponderar, de modo automático e artificial, os valores em disputa, especialmente quando um desses valores é a liberdade de expressão”, defendeu.
Na avaliação de Mendonça, se as plataformas estiverem sujeitas a penalidades por conteúdos publicados por terceiros, a tendência é um aumento da vigilância sobre a atividade online dos usuários.
“A análise do tema enseja uma alteração de foco. Deixar de mirar na responsabilidade pela remoção do conteúdo ou do perfil, passando-se a destinar atenção aos protocolos e procedimentos empregados pelas plataformas na tentativa de criar um ambiente digital mais hígido, íntegro e salutar.”
Os pontos-chave do voto de André Mendonça:
O ministro iniciou o voto defendendo que apresentaria uma posição moderada em busca do consenso no plenário.
“Se dependesse de mim, o resultado desse julgamento seria outro, bastante diferente, e seria muito mais rigoroso.”
Ainda na apresentação, Dino apresentou exemplos como o de ataques a escolas e de crimes contra crianças e adolescentes estimulados nas redes sociais para defender um controle mais rígido sobre as publicações.
Os pontos-chave do voto de Flávio Dino:
If you often open multiple tabs and struggle to keep track of them, Tabs Reminder is the solution you need. Tabs Reminder lets you set reminders for tabs so you can close them and get notified about them later. Never lose track of important tabs again with Tabs Reminder!
Try our Chrome extension today!
Share this article with your
friends and colleagues.
Earn points from views and
referrals who sign up.
Learn more