A Suprema Corte dos EUA está adiando para tribunais inferiores dois casos importantes que analisam como as empresas de mídia social moderam o conteúdo em suas plataformas e como os estados respondem a isso.

As decisões devolvem os casos aos tribunais do Texas e da Flórida, onde as leis estaduais de 2021 tentaram impor limitações sobre como plataformas de mídia social como Facebook, X e YouTube decidem remover ou recomendar conteúdo aos usuários.

“Nem o Décimo Primeiro Circuito nem o Quinto Circuito conduziram uma análise adequada dos desafios faciais da Primeira Emenda”, escreveu a juíza Elena Kagan na decisão da maioria.

Não houve opiniões divergentes, apenas concordando parcialmente com a decisão do Tribunal e concordando parcialmente com os acórdãos originais ao longo da decisão de 96 páginas.

Nenhuma das leis estará em vigor enquanto estiverem sob revisão.

Os procuradores-gerais no Texas e na Florida alegaram que as leis estaduais foram criadas para lutar contra a alegada “censura das grandes tecnologias” e a chamada discriminação de pontos de vista, particularmente contra pontos de vista conservadores na sequência da insurreição de 6 de Janeiro. Grupos comerciais da Internet que representam empresas como Google e Meta processaram, alegando que as leis propostas violavam a Primeira Emenda e o direito das plataformas de remover conteúdo prejudicial.

A Suprema Corte ouviu os argumentos orais dos casos em fevereiro. Durante todo o tempo, os juízes escreveu, “ninguém prestou muita atenção” a como as leis poderiam potencialmente violar a Primeira Emenda. O Tribunal afirmou que tanto os estados como os grupos comerciais se concentraram na forma como a legislação afetaria a forma como as plataformas de redes sociais moderam o conteúdo, como a forma como o YouTube organiza a sua página inicial, mas não como poderia potencialmente afetar outros serviços, como as mensagens diretas.

O alcance total das leis precisa ser determinado antes que as preocupações da Primeira Emenda possam ser julgadas, disse a Suprema Corte. Ao enviar os casos de volta aos tribunais inferiores para revisão, os juízes incluíram alguns princípios orientadores a serem considerados por esses tribunais.

No início desta sessão, o Supremo Tribunal decidiu que a administração Biden pode continuar a contactar as empresas de redes sociais e instá-las a retirar publicações que considere desinformadas, como fez sobre temas como a COVID-19 e as eleições de 2020. O tribunal também disse que os estados e os usuários das redes sociais que processaram não tinham legitimidade ou direito de processar.

A decisão ocorre no momento em que as plataformas de mídia social enfrentam desafios governamentais cada vez maiores. O presidente Biden assinou em abril uma legislação destinada a forçar a venda do TikTok por sua empresa controladora chinesa ByteDance, uma decisão que muitos usuários temem que levará a uma proibição do TikTok nos EUA. Em junho, o cirurgião-geral dos EUA Vivek Murthy escreveu um artigo de opinião no The New York Times pedindo rótulos de advertência de mídia social, semelhantes aos de cigarros e álcool, sobre os efeitos potencialmente prejudiciais da mídia social em crianças e adolescentes.

As decisões da Suprema Corte em relação às plataformas de mídia social não causarão nenhuma mudança imediata na forma como você usa suas contas, mas provavelmente surgirão na retórica política neste período eleitoral.

Vê isto: EUA vs. TikTok: O que acontece a seguir

Como as plataformas de mídia social moderam o conteúdo?

A moderação de conteúdo em plataformas de mídia social é um processo complicado e às vezes ambíguo. Veja como ele normalmente funciona.

Do lado do usuário, no nível mais básico, as plataformas de mídia social têm um conjunto de diretrizes da comunidade que todos os usuários devem seguir. Essas diretrizes descrevem o que é e o que não é conteúdo e comportamento aceitáveis ​​na plataforma. Você precisa concordar com elas antes de poder criar uma conta.

Por exemplo, a maioria das plataformas tem regras contra o compartilhamento de conteúdo de spam e postagens com conteúdo ofensivo ou gráfico. Se uma plataforma decidir que o conteúdo viola essas diretrizes, ela poderá removê-lo ou desabilitar a conta, dependendo da gravidade e da situação. Mas há um problema de escala: com milhões de publicações por dia, pode ser difícil para as plataformas sinalizar e capturar todas as publicações que possam violar as diretrizes da comunidade e os termos de serviço. É por isso que as plataformas sempre incentivam você a denunciar e bloquear atividades ou contas suspeitas.

Algumas plataformas têm diretrizes adicionais que descrevem o que pode ser promovido nas páginas de exploração, pesquisa ou Para você. O TikTok, por exemplo, atualizou recentemente suas orientações para que o conteúdo sinalizado como promotor de transtornos alimentares e teorias da conspiração não seja elegível para aparecer nos feeds For You. Os criadores que monetizam suas postagens ou participam de fundos para criadores normalmente também têm diretrizes e critérios adicionais a cumprir.

Do lado da plataforma, as empresas usam algoritmos para priorizar o conteúdo no seu feed e servir postagens que elas acham que você vai gostar ou achar envolvente. Então, se você gosta de um monte de vídeos do YouTube sobre crochê, a plataforma provavelmente recomendará vídeos sobre tricô para você. Você provavelmente também receberá mais anúncios direcionados a esse interesse. As plataformas geralmente são bem discretas sobre os detalhes de como esses algoritmos funcionam, mas elas tentam apontar os criadores e anunciantes na direção certa.

Outra observação para entender como funciona a moderação de conteúdo nas redes sociais é que decisões legais anteriores estabeleceram que as empresas de redes sociais não são legalmente responsáveis ​​pelo conteúdo que os usuários postam em seus sites, pois são “plataformas”, e não “editores”. Ou seja, você provavelmente não terá sucesso em processar a Meta se alguém postar algo em um grupo do Facebook que seja ofensivo ou inapropriado.



Fuente