Quando pensamos em moderação de conteúdo, logo nos vem à mente aqueles casos em que os posts de usuários das redes sociais são excluídos ou que perfis inteiros são deletados pela própria plataforma por violar as políticas de uso. Por exemplo, conteúdos ofensivos, discurso de ódio, conteúdo sexual, propagação de informações falsas ou por violar políticas de direito autoral. Mas a moderação de conteúdo vai muito além disso.

A classificação de conteúdos como sensível ou perigoso, a determinação do que é relevante para cada perfil de usuário e a “seleção” de quais conteúdos vão aparecer em quais feeds também são exemplos de moderação de conteúdo.

Atualmente, esse trabalho é feito tanto de forma automatizada, por algoritmos, quanto por humanos, que revisam muitas vezes as decisões algorítmicas, especialmente quando o usuário faz alguma reclamação sobre a moderação feita em seu conteúdo ou seu perfil. Essa moderação, no entanto, é feita de forma não transparente. Muitas vezes não se sabe exatamente quais critérios são utilizados pelos algoritmos em sua tomada de decisão. 

Diante dessa caixa preta, que dita o que é ou não um conteúdo apropriado e relevante para a grande massa, os que mais sofrem são, é claro, as minorias. Que os algoritmos, de forma geral, apresentam vieses; que a tecnologia não é neutra; que falta representatividade das minorias sociais e econômicas em todas as áreas; que os feeds das redes sociais da grande maioria dos usuários são repletos de conteúdos criados por e para pessoas brancas, cis e heteronormativas, magras, com o padrão estético da Europa ocidental; tudo isso não é novidade para ninguém. Mesmo quem não estuda o tema ou não se atenta para tais questões, já percebeu, em algum momento, que as estruturas e sistemas sociais existentes em todo o mundo passaram rapidamente a também pertencerem ao mundo virtual. E não poderia ser diferente, já que quem faz e molda a tecnologia, a internet e as plataformas são os próprios seres-humanos que mantém as estruturas de poder na sociedade.

E é claro que isso não iria mudar de uma hora para outra. Os responsáveis pelas plataformas visam o lucro e não a dignidade das pessoas. Mas mesmo depois de diversas discussões e estudos, de movimentos sociais e denúncias, casos bizarros continuam ocorrendo. 

Em 2019, produtores de conteúdo da comunidade LGBTQIA+ processaram o YouTube, nos EUA, sob alegação de que a plataforma estaria discriminando seu conteúdo, removendo sua remuneração de vídeos com palavras como “gay” ou “lésbica”. Além disso, os produtores alegaram que a rede estaria rotulando vídeos que tratem de temas LGTQIA+ como “sensíveis” ou “maduros”, restringindo sua aparição nos resultados de busca ou recomendações. Ainda, segundo o processo, a discriminação não se relaciona somente ao conteúdo dos vídeos, mas também à identificação do autor do canal. O Google contestou as reclamações, no entanto, ainda há uma clara invisibilidade da comunidade nas plataformas. 

Em 2020, o TikTok foi acusado de censurar publicações e tópicos políticos e sociais relacionados às questões LGBTQIA+, repressão ao povo uigur na China e recentes protestos nos EUA. 

Este ano, o Instagram removeu conteúdos de pessoas trans, classificando-os como “sexualmente sugestivos”. Em julho, o grupo The Oversight Board — órgão independente de supervisão que aborda questões desafiadoras das redes sociais, elaborando relatórios — selecionou novos casos para avaliação, entre eles um caso sobre identidade de gênero e nudez. Segundo eles, a Meta teria removido dois posts da mesma conta por violação da política de uso da rede por conter nudez.

Os usuários que publicaram as fotos expressaram confusão, já que as publicações não eram de mulheres, mas um homem trans e uma pessoa não binária. Ambos publicaram as fotografias em comemoração por marcarem suas cirurgias de reafirmação de gênero, convidando seus seguidores a ajudarem no pagamento do procedimento através de doações. A argumentação utilizada para a remoção dos conteúdos é baseada em uma invisibilidade dos corpos de pessoas trans e seus direitos, na ignorância de sua existência. Eles apelaram da decisão, mas a Meta não a revogou.

Apenas após o Oversight Board assumir o caso, a empresa reverteu sua decisão e disponibilizou as postagens na plataforma, alegando que foram removidas “por engano”. Diretrizes pouco claras e falta de transparência sobre o processo de moderação são agravantes nas lutas que pessoas da comunidade LGBTQIA+ e de outras minorias sociais enfrentam com a censura nas plataformas de redes sociais.

Os algoritmos que realizam a moderação de conteúdo automatizada muitas vezes são opacos. Com a combinação de variados modelos e a tentativa de personalização dos feeds com base em variados fatores, fica difícil saber as razões exatas que levam um algoritmo a tomar a decisão que se traduz em censura à comunidades específicas. No entanto, é certo que esses vieses advém dos sistemas e estruturas sociais já existentes.