Início Tecnologia Não precisamos de policiais de conteúdo nas redes sociais. Precisamos de um...

Não precisamos de policiais de conteúdo nas redes sociais. Precisamos de um design melhor.

14
0
Não precisamos de policiais de conteúdo nas redes sociais. Precisamos de um design melhor.

Em abril, a Meta se reverteu discretamente após remover uma postagem do Instagram homenageando relacionamentos lésbicos mais antigos no Brasil. A postagem extirpada não era de natureza sexual e não continha material prejudicial a menores. A postagem em questão documentou um instantâneo de um momento na história em que lésbicas foram forçadas a esconder seus relacionamentos como “colegas de quarto” ou “amigas” e seu amor foi apagado dos registros públicos. Mesmo assim, Meta removeu o conteúdo.

Meta citando suas regras de discurso de ódio. O Conselho de Supervisão reconheceu mais tarde o que deveria ter sido óbvio desde o início: o caso do Brasil foi um exemplo de aplicação excessiva contra uma comunidade marginalizada, impulsionada por sistemas automatizados que não conseguiam ler o contexto, a linguagem recuperada ou mesmo a própria postagem completa. O conteúdo foi restaurado somente após intervenção externa e defesa da comunidade LGBTQ+.

Favorito dos fãs do Mashable 101: Vote no seu criador favorito hoje!

Este caso está agora a ser tratado como um erro restrito de moderação de conteúdo, mas os decisores políticos precisam de reconhecer que sinaliza um aviso claro sobre o que acontece quando os legisladores forçam as plataformas a policiar o conteúdo em vez de corrigirem o design. Em todo o país, os estados estão a apressar-se para “proteger as crianças online”, restringindo o acesso às redes sociais ou pressionando as empresas a remover conteúdo “prejudicial” vagamente definido. Mas o que aconteceu no Brasil mostra o custo humano dessa abordagem.

Quando as plataformas são incentivadas a remover a fala rapidamente e em grande escala, elas não se tornam melhores avaliadoras das nuances. As redes sociais tornam-se um instrumento contundente e as primeiras pessoas atingidas são aquelas cujas histórias requerem contexto humano e empatia radical para serem compreendidas.

Se os legisladores realmente quiserem proteger as crianças, deveriam parar de pedir às plataformas que decidam quais histórias são aceitáveis ​​e começar a regulamentar as principais escolhas de design que causam danos, como rolagem interminável, recomendações baseadas em engajamento e feeds orientados por vigilância.

VEJA TAMBÉM:

Eu tive um Sugar Daddy do Grindr por um dia. Então ele tentou obter um reembolso.

Veja por que essa distinção é importante, especialmente para crianças LGBTQ+ e outras comunidades marginalizadas, como crianças neurodivergentes. É muito mais provável que os jovens LGBTQ+ do que os seus pares dependam de espaços online para encontrar comunidade, informação e apoio, muitas vezes porque essas coisas não estão disponíveis ou são inseguras em casa ou na escola. Mas também são significativamente mais propensos a acabar em interações online inseguras: assédio, aliciamento, doxxing ou serem empurrados para espaços de alto risco que não procuravam.

Na Austrália, após a proibição das redes sociais para menores de 16 anos, os defensores dos direitos das pessoas com deficiência observaram que os jovens autistas foram excluídos de algumas das únicas redes de apoio e de pares disponíveis para eles.

Velocidade da luz mashável

Os sistemas de recomendação não compreendem a vulnerabilidade, mas compreendem o envolvimento. Quando uma criança queer procura uma comunidade, as plataformas geralmente respondem amplificando agressivamente tudo o que os faz clicar. Geralmente, isso significa conteúdo cada vez mais sexualizado, adultos estranhos, retórica extremista ou contas predatórias que sabem exatamente como explorar o isolamento.

A rolagem infinita torna o desligamento muito mais difícil para os adolescentes, de acordo com o Centro de Informações sobre Privacidade Eletrônica, ainda mais para aqueles que vivem em comunidades vulneráveis. Sugestões algorítmicas de “amigos” ou “contas” derrubam fronteiras liminares entre adolescentes e adultos. Padrões fracos dificultam o bloqueio, o silenciamento ou o desaparecimento.

Os jovens, e não apenas os jovens LGBTQ+, estão expostos a danos online porque as plataformas são construídas para chamar a atenção e não para proteger os utilizadores. Os pais têm razão em ficar preocupados e defender mudanças. Mas um enquadramento baseado em conteúdo ignora o problema real.

Os maiores riscos que as crianças enfrentam on-line não vêm de uma única postagem ruim que escapa da moderação, mas de sistemas automatizados que empurram conteúdo para crianças que elas não pediram, conectam-nas a pessoas que elas não conhecem e as mantêm navegando por muito tempo depois que os sinais de alerta aparecem.

Os decisores políticos, tanto a nível estadual como federal, precisam de conceber regulamentos que abordem directamente esses riscos. Os códigos de design adequados à idade não dizem às plataformas que discurso permitir, mas podem dizer às plataformas como se comportar. Os códigos de design exigem padrões mais seguros, como limites para perfis comportamentais, ferramentas de bloqueio mais fortes, amplificação reduzida de recomendações não solicitadas e proteções que retardam a viralidade e o uso compulsivo.

O público deveria defender o refinamento do produto, em vez da violação dos direitos da Primeira e Quarta Emendas. Os códigos de design reduzem a chance de uma criança curiosa ou solitária ser canalizada algoritmicamente para o perigo, como eu fui, em busca de uma comunidade e empurrada para o risco por sistemas que não se importavam com quem eu era.

Os códigos de design adequados à idade oferecem uma saída para esta confusão. Ao regular a forma como as plataformas são construídas e não o que as pessoas podem dizer, as leis de código de design reduzem os danos sem transformar as empresas em censores culturais. Eles não exigem plataformas para interpretar calúnias recuperadas, história queer ou discurso político. Em vez disso, as empresas deveriam ser obrigadas a acabar com o vício e o risco da engenharia.

Não precisamos de mais proibições de conteúdo ou de plataformas. Precisamos de menos sistemas prejudiciais. Se levamos a sério a proteção das crianças online, especialmente aquelas que já estão em maior risco, este caso nos lembra exatamente por onde começar.

Este artigo reflete a opinião do escritor.

Lennon Torres é um ex-artista do Dance Moms que agora luta pela segurança dos jovens online. Ativista trans e ex-aluna da Universidade do Sul da Califórnia, ela usa sua fluência na cultura pop e experiência vivida para impulsionar seu trabalho na Heat Initiative, enfrentando gigantes da tecnologia e exigindo plataformas para proteger e capacitar a próxima geração.

Fuente