No momento, você está visualizando STF define critérios para responsabilização de plataformas digitais por conteúdos
Fonte: Sara Kurfess (https://unsplash.com/pt-br/fotografias/ativado-iphone-6-dourado-6lcT2kRPvnI)

STF define critérios para responsabilização de plataformas digitais por conteúdos

O Supremo Tribunal Federal (STF) concluiu, no dia 26.06, o julgamento dos Recursos Extraordinários 1.037.396 e 1.057.258, que tratam da responsabilização de plataformas digitais por conteúdos publicados por usuários. A decisão tem repercussão geral e efeito vinculante para todas as instâncias do Judiciário.

Por maioria, os ministros decidiram que o artigo 19 do Marco Civil da Internet (Lei 12.965/2014) é parcialmente inconstitucional. O dispositivo, que condicionava a responsabilidade civil dos provedores à existência de ordem judicial para a remoção de conteúdos, foi considerado insuficiente para proteger direitos fundamentais. O STF determinou que, até que o Congresso Nacional aprove nova legislação sobre o tema, o artigo 19 deverá ser interpretado conforme a Constituição, com foco na proteção contra conteúdos ilegais e danosos, com objetivo de proteger a sociedade de condutas ilícitas e abusivas.

O julgamento começou em 2023 e abordou temas como liberdade de expressão, combate à desinformação e dever de moderação das plataformas. A decisão estabelece que, nos casos de crimes contra a honra, os provedores só poderão ser responsabilizados se não cumprirem ordem judicial específica para remoção do conteúdo.

O STF também fixou que, nos casos de crimes graves, as plataformas devem agir imediatamente e proativamente para retirar os conteúdos, mesmo sem notificação ou decisão judicial. Esses casos incluem publicações relacionadas a tentativa de golpe de Estado, ataques ao Estado Democrático de Direito, terrorismo, incitação ao suicídio ou à automutilação, racismo, homofobia, violência contra mulheres e crianças, tráfico de pessoas, discriminação e discurso de ódio.

Além disso, o Supremo estabeleceu que as plataformas poderão ser responsabilizadas diretamente, sem necessidade de decisão judicial, nos casos de anúncios pagos e na detecção de distribuição ilícita automatizada por robôs.

A responsabilidade das plataformas deverá ser avaliada caso a caso, com análise de culpa ou dolo.

O STF determinou que os provedores devem implementar mecanismos de autorregulação, incluindo sistemas de notificação, canais de atendimento, garantia de devido processo e publicação de relatórios anuais de transparência sobre notificações extrajudiciais, anúncios e impulsionamentos.

O caso analisado teve origem em ação de um usuário que alegou ter sofrido ofensa à honra em uma rede social e buscava responsabilizar a empresa antes da emissão de qualquer ordem judicial.

Com a decisão, STF criou precedente para vincular e uniformizar a jurisprudência sobre o tema no país. O entendimento marca um momento importante de regulação das mídias sociais e deverá ser parâmetro para orientar debates futuros no Congresso Nacional sobre a regulamentação das plataformas digitais e a moderação de conteúdos na internet.

Deixe um comentário