O ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF), defendeu a responsabilização das plataformas digitais pelos conteúdos ilícitos publicados por seus usuários, durante um julgamento que atualmente apresenta um placar de 7 a 1 a favor dessa responsabilização. Moraes, um dos principais defensores da regulamentação das redes sociais, destacou que a autorregulação das big techs falhou e que essas plataformas não podem se apresentar como neutras ou imparciais, pois possuem suas próprias ideologias políticas e crenças religiosas.
Durante a leitura de seu voto, Moraes apresentou um vídeo que mostrava as depredações nos prédios dos Três Poderes ocorridas no 8 de janeiro e ressaltou que as redes sociais permitiram a multiplicação de conteúdos que incitavam a violência. Ele argumentou que mais de 300 pessoas se autoincriminaram ao filmar e compartilhar os ataques nas plataformas, o que demonstra uma grave falha na supervisão e controle do conteúdo que circula nessas mídias.
O ministro também relatou uma reunião que teve com representantes das big techs, na qual questionou sobre o monitoramento de conteúdos relacionados a pornografia, pedofilia e direitos autorais. Ele constatou que, embora as empresas afirmassem remover 93% dos conteúdos problemáticos antes que recebessem curtidas, não aplicavam o mesmo rigor em casos de discursos de ódio, racismo e homofobia. Essa inconsistente abordagem levantou a questão sobre o que realmente motiva as plataformas a agir, com Moraes enfatizando que o que gera engajamento muitas vezes é conteúdo prejudicial.
Moraes destacou ainda que as redes sociais controlam os direitos autorais apenas por questões econômicas, sugerindo que, se houver responsabilização por impulsionamento e monetização de conteúdos ilícitos, as plataformas devem ser responsabilizadas por sua falta de ação em outros casos. O julgamento continua na próxima terça-feira, com os votos dos ministros Edson Fachin, Cármen Lúcia e Nunes Marques ainda pendentes. O debate se concentra na constitucionalidade do artigo 19 do Marco Civil, que exige uma ordem judicial para a exclusão de conteúdo e responsabiliza provedores e gestores de redes sociais por atos ilícitos cometidos por terceiros.