Diante dos avanços tecnológicos que desafiam as fronteiras normativas tradicionais, o Supremo Tribunal Federal, em junho de 2025, aprovou novas regras para o controle de conteúdo ilegal nas redes sociais, mirando responsabilizar as plataformas no que tange a postagens criminosas nas redes sociais.
Trata-se do julgamento de dois recursos extraordinários, com repercussão geral reconhecida (Temas 987 e 533 do STF), que discutem os limites da responsabilidade civil de plataformas digitais por danos causados por conteúdos postados por terceiros. Foi decidido pela inconstitucionalidade parcial e progressiva do artigo 19 da Lei nº 12.965/2014 (Marco Civil da Internet), que estabelecia que as plataformas somente poderiam ser responsabilizadas se houvesse uma ordem judicial determinando a remoção do conteúdo e elas descumprissem essa decisão.
Conteúdo na rede sobre pornografia infantil, terrorismo, incitação ao ódio e fake news no contexto das eleições, são temas que mexem com questões muito sensíveis e estão pautados na ordem do dia, após repercussão do vídeo do influenciador Felca, que descortina como as plataformas potencializam tais crimes e facilitam sua disseminação nas mídias sociais.
Nos últimos anos, a justiça eleitoral é a que mais se ocupou da integridade informacional pulverizada nas redes sociais, em razão do compromisso de proteger um dos pilares mais caros da Constituição Federal: a democracia.
A desinformação e a manipulação algorítmica já são reconhecidas pelo Tribunal Superior Eleitoral como ameaças à integridade do processo democrático, pois influenciam a formação da opinião pública, a agenda política e até mesmo o comportamento do voto, tanto que tratou de estabelecer regras na Resolução 23.610/19 que punem o excesso à liberdade de expressão, propaganda impulsionada sem a devida transparência, etc.
Todavia, até então, o TSE apenas se ocupou de regulamentar os impulsionamentos pagos, mas e o impulsionamento orgânico, aquele cuja informação se pulveriza em segundos, apenas pela utilização de técnicas e códigos de captura reversa dos algoritmos?
Dos princípios da Constituição Federal se extrai o dever de cuidado, segundo o qual o prestador de serviço da comunicação precisa se atentar à função social empresarial, logo, as plataformas devem respeitar o dever de correção, prevenção de ilícitos e prestação de contas do seu modo operacional. Em nenhuma hipótese, os imperativos econômicos das plataformas devem se sobrepor a tais deveres.
É possível que as regras do Supremo Tribunal Federal tenham se inspirado na ocupação do Tribunal Superior Eleitoral há tempos sobre fraudes nos meios digitais, mas a decisão está longe de colocar ordem na casa, ou melhor dizendo, no Brasil. Estabelecer que agora as plataformas digitais terão que lidar com a possibilidade de serem responsabilizadas por conteúdos ilegais mesmo sem ordem judicial, apenas corrobora que estamos vivendo um cenário de omissão legislativa com efeitos catastróficos à população, mas não define regras limítrofes de nada.
A ausência de regulamentação dos algoritmos os deixam livres, leves e soltos, mais ágeis, mais rápidos, massivos em grande escala pelo uso da inteligência artificial, em um alcance indeterminado de receptores de mensagens.
Enquanto o País não contar com uma legislação específica sobre a responsabilização das plataformas digitais, haverá algum nível de insegurança jurídica sobre o tema, e essa legislação tem que exigir relatórios públicos de riscos, canais de denúncias rápidos, cooperação com autoridades policiais, bibliotecas públicas de anúncio político, responsabilidade solidária aos donos das plataformas e educação midiática.
É chegada a hora de organizar a casa e estabelecer prioridades, do jeito que as coisas estão, responsabilizar plataformas não é censurar comunicação, é apenas estabelecer que a informação chegue de forma íntegra e sem causar danos a terceiros, é cessar a cultura que erotiza a colegial de saia plissada, é auditar códigos até então desconhecidos no fronte da inteligência artificial.